Kilka informacji o nowym Penguinie oraz tym dlaczego brak kontroli nad linkami jest fatalnym pomysłem, który może zatrzymać i zniszczyć działania SEO.
Czym jest i za co odpowiada algorytm Google Real time Penguin
W wielkim skrócie, Google Penguin odpowiada za ograniczanie widoczności stron internetowych, które posiadają zbyt wielki udział nienaturalnych linków przychodzących w całym swoim profilu linkowania.
Kiedy dana strona, a od teraz prawdopodobnie nawet i pojedyncza podstrona, przekroczy bezpieczną granicę odnośników kierujących, oznaczonych przez pozostałe algorytmy jako nienaturalne, Google Penguin nakłada na nią ograniczenie, które obniża jej pozycje na konkretne słowa kluczowe lub całe grupy słów kluczowych.
Zatem w większości przypadków redukuje jej widoczności i blokuje możliwość pojawiania się na wysokich pozycjach w organicznych wynikach wyszukiwania Google, co bezpośrednio przekłada się na spadek ruchu organicznego.
Kiedy strona narażona jest na ten rodzaj kary
Informacje wprost od pracowników Google, którzy rzeczywiście znajdują się blisko algorytmów i całej walki z nienaturalnymi linkami, powiedzieli na przykładzie (mogą to być twarde dane), że w przypadku wykrycia podejrzanych linków w całym profilu:
- 50% jest granicą kiedy algorytm zaczyna kwestionować ich naturalne metody pozycjonowania
- 70% to moment kiedy adres domeny pojawia się na liście web spam teamu, w celu weryfikacji czy nie powinny zostać na nią nałożone działania ręczne
- Można więc założyć, że ok. 80-90% to moment, kiedy domena znika z poprzedniej listy i jej oceny/degradacji dokonuje algorytm Google Penguin
Pamiętajmy jednak, że choć Penguin jest algorytmem odpowiedzialnym głównie za skrajne przypadki, to dla wszystkich pozostałych również istnieją odpowiednie algorytmy, które teraz z pewnością będą znacznie częściej aktualizowane.
Nowe mity na temat aktualizacji Real time Penguin
Wraz z kolejnymi komentarzami ze strony Google na temat algorytmu Penguin, po sieci zaczęły krążyć (moim zdaniem) źle wywnioskowane mity, które naturalnie wiele osób bez chwili zastanowienia zaczęła powielać na swoich blogach. Największym i najgorszym z nich, który odwołuje się do wypowiedzi na Facebooku Barry’ego Schwartz’a, której autorem jest Gary Illyes:
Jest informacja, że od teraz będzie można bez przeszkód spamować linkami i w najgorszym przypadku, Google po prostu nie zliczy tych, które uzna za nienaturalne. Oczywiście tak nie będzie. Jak zakładałem tuż po rozpoczęciu wirusowego wręcz roznoszenia się tego mitu:
Google owszem, zamiast karać całą witrynę, będzie ignorowało nienaturalne linki „ALE”, jeżeli owe linki zaczną być ignorowane, to każdy kolejny, nawet naturalny i super dobry dla widoczności witryny, również. To bardzo prawdopodobne przypuszczenie zostało potwierdzone lekko ponad dwa tygodnie po tym jak przedstawiłem dwoją teorię.
Czy warto zatem nadal zrzekać się linków?
Oczywiście, że tak. Chociaż znacznie lepszym i skuteczniejszym rozwiązaniem jest zwyczajne usunięcie tych problematycznych odnośników.
Real time Penguin jest algorytmem odpowiedzialnym za dość skrajne przypadki. Jako, że może teraz dopasowywać się nawet do konkretnych podstron, zagrożenie z jego strony może być większe niż miało to miejsce do tej pory gdy oceniał domenę jako całość.
Nawet pomimo iż szanse na ponowny powrót do normalnego rankingu są znacznie większe, w dobie płynnych spadków samo zdiagnozowanie problemów z linkami może stać się nie lada wyzwaniem.
Poza tym Google Penguin nie jest jedynym algorytmem oceniającym linki. Tych jest wiele.
Oceniają one między innymi:
- czy link jest naturalny
- gdzie znajduje się link (stopka, treść, sidebar)
- ile mocy nadać danemu linkowi
- jakie sygnały przez niego przepuścić (np. anchor tekst)
- jaki jest kontekst linku
- itp.
I te algorytmy również mają swoje zakresy ocen. Posługując się przykładem wypowiedzi Matta Cutts’a na temat nasycenia słów kluczowych, bardzo łatwo można odnieść podobną zasadę co do zasady oceny samych linków. (Fragment pomiędzy 0:42, a 1:25)
Jeżeli proporcje odnośników oznaczonych przez algorytm jako nienaturalne wynosi powiedzmy 30% to pozostałe linki przekazują jeszcze sygnały rankingowe.
Przy 50% ich siła osiąga szczyt i wraz z każdym nowym linkiem/procentem, zaczyna maleć/szkodzić. I to własnie dlatego dokładanie na siłę linków daje efekt zupełnie odwrotny do zamierzanego.
Audyt linków pozwala na odsunięcie witryny od niebezpiecznej granicy i sprawia, że w momencie kiedy dana podstrona otrzyma dobry link, otrzymuje również pełnię jego potencjału i wszystkie pozytywne sygnały, które naliczy dla niego Google.
W przypadku balansowania na granicy, efekt może być zupełnie odwrotny bądź też żaden i to jest właśnie zjawisko określane nałożeniem na domenę filtru algorytmicznego, które jak sądzę zacznie pojawiać się teraz znacznie częściej. A w dobie płynnych spadków, które nie są już tak spektakularne jak w przeszłości, odnalezienie przyczyny problemu może okazać się bardzo trudne.
Także ponownie, tak, warto wykonywać wciąż wykonywać audyty linków i odsuwać się od tej niebezpiecznej granicy aby móc wykorzystać pełny potencjał wartościowych linków, który daje znacznie lepsze efekty niż setki zbudowanych tylko dla SEO.
Inny punkt widzenia
Wnioski, które branża wyciągnęła na podstawie pierwszych aktualizacji Google Penguin sprowadzają się głównie do tego, że problem tkwi w procentowym udziale zarobkowych anchor tekstów w całym profilu linków.
Wiele osób przeprowadzających audyty linków (z sukcesami) do tego czynniku dodaje również inne, takie jak na przykład jakość podstrony/domeny linkującej, ale już zdecydowanie mniej, sam sens umieszczenia linku.
Dlaczego o tym piszę
Od dosyć długiego czasu wierzę, że sukcesy oparte o ogólnodostępne informacje dotyczące ściągania kary ręcznych oraz algorytmicznych takich jak Penguin, związane są tylko z korelacją czynników jakie rzeczywiście Google bierze pod uwagę.
Do tej pory byliśmy świadkami zaledwie siedmiu takich aktualizacji, które zostały przeprowadzone w ciągu czterech lat, w całkowicie nieprzewidywalnych odstępach czasowych. To daje ledwie jedną aktualizację średnio na siedem miesięcy.
Jak wiele można wywnioskować na podstawie całkowicie skrajnych przypadków stron, które albo całkowicie spadły albo pozbyły się kary z powodu powrotu do bezpiecznej granicy nienaturalnych linków przychodzących.
Przecież tak wiele z tych stron do dziś ma problemy z odzyskaniem pełni poprzedniej widoczności i tak na prawdę wciąż trudno jednoznacznie określić jak wygląda sytuacja po środku, kiedy kara wygląda na wycofaną częściowo. (zakładając, że w czasie jej trwania jakość witryny i nowych linków wzrosła)
Musi zatem istnieć jakaś granica błędu, w której ostatecznie znajdują się linki, nieszkodliwe z algorytmicznego punktu widzenia.
Informacje jakie udało mi się zgromadzić do tej pory, bardzo silnie sugerują, że podejście Google do wykrywania nienaturalnych linków jest zupełnie inne niż wydaje się Seowcom, a jego znajomość może być kluczem w kwestii zminimalizowania strat ubocznych czyli wspomnianej wcześniej granicy błędu.
Wraz z kolejnymi, a także i poprzednimi wypowiedziami Google takimi jak chociażby „problem nie są same katalogi” czy też niedawną wzmianką „bardziej chodzi o to z jakich stron pochodzą linki” wszystko zdaje się potwierdzać.
Widać ciągle ze Google coś kombinuje, bo są dziwne spadki i wzloty. Niedługo dojdzie do takiego momentu ze i takowe linki będą tracić moc, albo najważniejszy będzie sam content strony – tylko wiadomo ze teraz najważniejsze jest linkowanie i tak było ale co będzie za rok/dwa lata. Możliwe ze Google wprowadzi tylko adWords i aby byc w topce trzeba będzie duzo płacić.
Myślę, że jakoś sensownie to rozwiążą. Inna sprawa, że samo adWords nie miałoby sensu istnieć bez organicznych wyników. Jeśli kiedykolwiek by tak było, to ludzie wybiorą po prostu inną wyszukiwarkę.