Zapowiadana od wielu miesięcy aktualizacja może mieć miejsce w każdej chwili. Warto zatem już dziś wiedzieć o tym w jaki sposób wykonać audyt linków i pozbyć się kary algorytmicznej nałożonej przez algorytm Google real time Penguin, a także jak zabezpieczyć profil linków kierujących do naszej strony przed ewentualnymi problemami w przyszłości.
O nowej aktualizacji wiemy tyle, że Google pracowało nad nią bardzo długo, a jej przygotowanie zajęło znacznie więcej czasu niż początkowo zakładali. Wprowadzone zmiany mogą znacząco odbiegać od tego czego nauczyły nas analizy poprzednich aktualizacji, jednak jedno jest pewne: celem Penguina jest karanie stron, które posiadają dużą ilość nienaturalnych linków.
Dobrą wiadomością jest fakt, że z uwagi na ciągłość działania czyli regularne odświeżanie algorytmu, będziemy mieli możliwość wyjścia z filtru znacznie szybciej niż było to możliwe do tej pory. Algorytm Google Panda, który również działa w czasie rzeczywistym, odświeżany jest cyklicznie, co zajmuje około miesiąca. Możemy zatem spodziewać się, że z Penguinem będzie bardzo podobnie.
Kto jest zagrożony
Niestety każdy. Rynek seo bardzo się zmienił i nawet najwięksi eksperci, którzy stosują najbardziej nieskazitelne techniki pozycjonowania są narażeni na kary.
Wynika to chociażby z działań nieuczciwej konkurencji, która czasem stara się depozycjonować serwisy niemożliwe dla nich do przeskoczenia. Wszechobecny spam generujący przy okazji linki do losowych domen oraz klonowane katalogi seo sprzed miliona lat.
Jeżeli były na nich kiedyś linki kierujące do naszej strony, pojawiają się one wówczas na nowych domenach, ponownie szkodząc widoczności całej witryny i narażając ją przy okazji na błędny osąd algorytmu, a w konsekwencji ponowne nałożenie kary.
Dlatego nie ma na co czekać, lepiej przygotować stronę już dziś.
Gromadzenie danych
W pierwszej kolejności musimy zebrać jak najwięcej informacji o linkach przychodzących (backlinkach), czyli dowiedzieć się jakie linki prowadzą do naszej strony i których domen. W tym celu warto wykorzystać wszystkie możliwe źródła takich informacji gdyż każde z nich może nadrabiać nieco braków wobec pozostałych.
Standardowa grupa narzędzi, które pomogą nam sprawdzić linki prowadzące do strony to Majestic, Ahrefs, Search Console i API Clusteric Search Auditor.
Większość z nich obsługiwana jest przez narzędzie Clusteric Search Auditor, którym będziemy przeprowadzać audyt linków, zatem nie musimy pobierać tych danych ręcznie, a później łączyć dla każdego ze źródeł z osobna.
Jeżeli ktoś jeszcze nie posiada CSA to można go zakupić tutaj: Search Auditor
Analiza automatyczna
Pracę z programem rozpoczynamy w oknie powitalnym, gdzie (jeżeli pobraliśmy najnowsze aktualizacje) wybieramy opcję „Nowa analiza”.
Kolejnym oknem jest wybór rodzaju analizy. W tym miejscu mamy przygotowanych kilka gotowych konfiguracji, jednak warto zebrać możliwie jak najwięcej danych poprzez zdefiniowanie własnej analizy.
W ustawieniach formuł oraz wyborze parametrów zaznaczamy wszystkie opcje z pominięciem dotyczących wskaźnika PageRank, który już od dawna nie jest pokazywany dla szerszej publiczności. Po nazwaniu i zapisaniu naszych nowych ustawień możemy przejść do etapu dodawania informacji o linkach przychodzących.
Importujemy dane o linkach przychodzących z GWT (czyli Search Console), API Clusteric, Ahrefs, Majestic i jeżeli posiadamy dane z innych narzędzi lub też własnej listy, wklejamy je bezpośrednio do okienka lub też wczytujemy jako plik tekstowy. Po prawej stronie należy wpisać adres domeny, dla której będziemy wykonywać audyt linków. Po uzupełnieniu danych wybieramy opcję „Analizuj” widoczną na samym dole okienka.
W następnym widoku mamy możliwość ograniczenia listy poprzez zredukowanie ilości analizowanych odnośników. Jeżeli zależy nam na czasie i wolnych zasobach to można wykonać analizę tylko dla pierwszych 10 linków kierujących z każdej domeny.
Po wybraniu odpowiednich opcji zatwierdzamy wybór i (idziemy zrobić kawę) czekamy na efekty analizy automatycznej.
Automatyczna analiza linków dostarcza bardzo wiele istotnych informacji i w większości przypadków prawidłowo wskazuje, na które odnośniki powinniśmy szczególnie zwrócić uwagę. Mimo wszystko jest to tylko wskazówka i każdy link powinien zostać ręcznie przeanalizowany.
Niektórzy właściciele domen zbudowali swoje pliki disavow wręcz na oślep, tylko w oparciu o automatyczne analizy co spowodowało zbędne odcięcie linków, które trzymały widoczność ich domeny.
W ten sposób bardziej sobie zaszkodzili niż pomogli dlatego warto poświęcić trochę więcej czasu i zaglądnąć na każdą stronę w celu pewniejszego osądzenia czy dany link rzeczywiście jest zły i powinien znaleźć się w pliku do zrzekania się linków.
Ręczna weryfikacja
Zanim przejdziemy do ręcznego poszukiwania nienaturalnych i szkodzących witrynie linków, warto wybrać tylko te kolumny na których aktualnie będziemy się skupiali.
Wybieramy opcje:
ALGO_RATING – Ocena automatyczna sugeruje które linki mogą być szkodliwe.
USER RATING – Nasza ocena, pozwoli ukryć linki, które już oceniliśmy.
TAGS – Warto wypełniać pole tagów aby opisać powód zrzeknięcia się linku.
FORMULA_SCORE – Więcej informacji o tym dlaczego ocena automatyczna jest taka, a nie inna.
REL – Informacja o statusie linku, przyda się do wyfiltrowania tylko linków dofollow.
ANCHOR – Anchor tekst za pomocą którego link kieruje do naszej domeny.
PAGE_TITLE – Atrybut title podstrony. Pomaga w odnalezieniu kopii serwisów oraz identycznych podstron na różnych domenach.
ENGINE – Informuje o skrypcie strony. Łatwiej dzięki temu odnaleźć np. Seokatalogi.
INDEXED – Informacja o tym czy dana podstrona znajduje się w indeksie Google.
TLD_INDEXED – Mówi o tym ile podstron z danej domeny jest zaindeksowanych w Google.
LINK_CONTEXT_DESC – Otoczenie linka, pozwala na odnalezienie linków z komentarzy itp.
EXT_UNIQ_DOM_DF – Ilość linków wychodzących na danej podstronie. Pomaga odnaleźć farmy linków.
WORDS_BLACKLISTED – Czy podstrona zawiera potencjalny spam, czyli słowa typu viagra itp.
Majestic_Fresh_BL – Ilość backlinków prowadzących do domeny.
Majestic_Fresh_RD – Ilość domen referujących dla domeny.
Majestic_Fresh_TF – Współczynnik Majestic TrustFlow, estymuje zaufanie w odniesieniu do linków.
Majestic_Fresh_CF – Jak wyżej lecz w odniesieniu do mocy / wpływu linków na seo.
SAFEBROWSING – Sprawdza czy domena nie znajduje się na liście zawirusowanych.
FROM_IP_CLASS – Klasa adresów ip, pozwoli na odnalezienie linków z zaplecz.
Podstawowy podział szkodliwych linków
Dla ułatwienia najlepiej już na samym początku schować te adresy, których nie będziemy analizować czyli domeny gdzie link do nas nie został odnaleziony bądź też posiada status nofollow.
Na zdjęciu wymuszam pokazywanie tylko linków oznaczonych w analizie automatycznej jako złe, jednak po ich przeglądnięciu zalecane jest też sprawdzenie przynajmniej linków oznaczonych jako AVG czyli o średnim zagrożeniu.
Podobnie klikamy na kolumnę REL i wybieramy z niej tylko domeny posiadające odnośniki kierujące ze statusem dofollow.
Ogólne kryteria oceny w przypadku linków co do których naturalności nie jesteśmy pewni to wygląd/stan techniczny strony, jej ostatnia aktualizacja oraz przede wszystkim sam sens obecności odnośnika.
Zalecam oznaczanie tego rodzaju linków jako AVG bez większej analizy i skupienie się w pierwszej kolejności na tych najbardziej szkodliwych. Do linków wymagających dłuższego zastanowienia najlepiej wrócić na sam koniec audytu.
Przy okazji, wiele osób twierdzi że w trakcie analizy możemy pominąć odnośniki o anchor tekstach zawierających nazwę domeny, adres url i niezarobkowe słowa kluczowe takie jak tu, tutaj, więcej itp. Nie jest to do końca prawdą.
Ocena naturalności odnośników nie odbywa się już bowiem tylko i wyłącznie na podstawie rozłożenia anchor tekstów ale i na poziomie wartości samej domeny.
Podobnie ominięte przez nas odnośniki ze statusem nofollow, również mogą szkodzić witrynie jednak ma to miejsce tylko w bardzo skrajnych przypadkach kiedy na przykład strona była agresywnie pozycjonowana za pomocą spamerskich automatów do budowania linków.
Odnośniki, które koniecznie musimy zweryfikować to:
Linki z domen usuniętych z indeksu Google czyli takich, dla których wartość TLD_INDEXED zwraca 0.
Odnośniki, które w parametrze SAFEBROWSING nie zostały oznaczone jako ok, czyli domeny znajdujące się na liście zawirusowanych.
Strony zawierające słowa z czarnej listy, potencjalny spam oznaczony w kolumnie WORD_BLACKLISTED.
Farmy linków, parametr EXT_UNIQ_DOM posortowany malejąco. Jeżeli jakaś domena posiada przypisaną mu wartość powyżej 5 bardzo możliwe, że znajdują się na niej śmieciowe linki w dużej ilości. Warto tutaj zwrócić uwagę na ich sens oraz ilość unikalnej treści. Podstrony z praktycznie samymi linkami jeden pod drugim mogą być szkodliwe gdyż w większości przypadków jest to czysty spam.
Katalogi niskiej jakości. ENGINE równe directory, zwłaszcza qlWeb i SEOKatalog.
Linki dofollow z sygnatur, profili, komentarzy, sekcji sidebar oraz footer (stopki stron), które przeważnie nie są pozyskiwane w sposób naturalny. Zobaczymy je dzięki filtrowi LINK_CONTEXT_DESC.
Cloacking. Do wykrywania technik pozycjonowania jakimi jest prezentowanie robotom wyszukiwarek i użytkownikom różnej zawartości, nie ma specjalnego parametru. Jeżeli w naszym narzędziu zobaczymy odnośnik oznaczony jako aktywny, a na stronie nie będzie go widać, najprawdopodobniej został on ukryty i narusza wytyczne Google dla Webmasterów.
Ponadto istnieje jeszcze szereg innych nieco bardziej zaawansowanych kryteriów oceny. Zaliczamy do nich na przykład odnajdywanie schematów i wspólnych wzorców dla dużej liczby linków, zbyt duży udział zarobkowych anchor tekstów w całym profilu linków, czy też wiele linków pochodzących z tej samej klasy adresów IP.
Zrzekanie się nienaturalnych linków
Po zakończonej analizie kiedy mamy już sprawdzone i oznaczone wszystkie linki, a przynajmniej te złe, przechodzimy do opcji „plik disavow”. W kolejnym oknie przeładowujemy listę uwzględniając tylko ręczną ocenę linków wykonaną przez użytkownika i zapisujemy plik disavow. Ten zaś zgłaszamy w za pomocą formularza do zrzekania się linków dostępnego w Search Console.
To ile czasu minie nim zobaczymy jaki wpływ ma odcięcie szkodliwych linków na naszą domenę może zająć od około tygodnia do miesiąca. I oczywiście okres ten dotyczy głównie przeliczenia istotniejszych odnośników. W przypadku podstron, które roboty Google odwiedzają znacznie rzadziej, reakcja może zająć nawet i całe miesiące.
W celu przyspieszenia całego procesu aktualizacji profilu linków w ocenie wykonanej przez algorytm Google możemy zgromadzić listę podstron, które wcześniej oznaczyliśmy jako złe i próbować przyspieszyć całą procedurę poprzez wykorzystanie pingowania i systemów przyspieszających indeksację.
Co dalej
Naturalnie dobrze jest mieć zachowane archiwum ostatniej analizy aby móc co jakiś czas dodawać do niej nowo odnalezione odnośniki, dzięki czemu będziemy przeglądać tylko je omijając to co zostało już sprawdzone.
Taka praktyka bardzo skutecznie skraca czas potrzebny na wykonanie ponownego audytu linków i pozwala na lepsze zrozumienie zmian zachodzących w profilu linkowania na przestrzeni czasu.
W dobie Real time Penguin dobrym rozwiązaniem będzie kontrolowanie linków przychodzących aby w miarę potrzeby, jak najszybciej odciąć się od wpływu nowych potencjalnych zagrożeń.
Zawsze brakuje mi samozaparcia żeby to skonfigurować 🙂
@ZGRED: Jeśli masz jakiekolwiek wątpliwości odnośnie konfiguracji, chętnie pomożemy. 🙂
Czyli powoli tworzy się zapotrzebowanie na kolejny etat w przypadku dużych firm 😛 będzie wysyp ofert, zatrudnię seo ninja, do walki z google i konkurencją 😛
Fajny tekst, dobór tematu bardzo na czasie. Przydałaby mi się tylko sekcja wyjaśniająca, dlaczego pewne rodzaje linków mogą być uznane przez Penguin za złe – np. nieco zaskoczyła mnie uwaga, że linki pochodzące z komentarzy mogą być uznane za nienaturalne i można za to otrzymać karę. Biorąc to pod uwagę, nie wydaje się, żeby depozycjonowanie było największym zmartwieniem specjalistów od SEO 🙂
Ponieważ są wskazywane w przykładach przez Google i na chłopski rozum, jeżeli ktoś dodaje komentarz z odnośnikiem dofollow pod swoim nazwiskiem to raczej nie promuje innych tylko siebie 😉
Oczywiście inaczej ma się sprawa jeżeli link jest w samym komentarzu. Dlatego zalecam zawsze dokładne przeglądnięcie, jeżeli link ma sens i został polecony przez kogoś innego to jest naturalny.
Niezły program.
Przydatny m.in jeśli ktoś przejął do dalszych prac już pozycjonowaną domenę i chce ocenić profil linków.
Także dla chcących ułatwić sobie, wykonywać szybciej i profesjonalniej swoje prace.
Ciekawe, czy algorytm będzie w stanie porpawnie ocenić na podstawie kontekstu rozmowy np. na forum, czy też w komentarzach, czy link jest naturalny czy nie. Bardzo mnie to zastanawia i obawiam się, że wiele linków DF może zostać ocenionych jako nienaturalne.
Myślę, że na tą chwilę rozpoznają głównie linki z sygnatur. Jeżeli chodzi o wartość linku z posta, rolę mogą pełnić inne kryteria takie jak na przykład ilość wpisów danego autora i unikalność linków w jego postach. Takie rzeczy są w stanie łatwo wyciągnąć z popularniejszych skryptów co zapewne robią.
Z punktu widzenia jednego z autorów programu powiem tak:
– W zasadzie Google też nie wie tego na 100%. Raczej szacują prawdopodobieństwo, że jest tak lub inaczej – w oparciu o X parametrów + spojrzenie na profil linków w ujęciu „statystycznym”. Tak naprawdę więc, bardziej trzeba by było powiedzieć „czy link na naturalny wygląda”.
Co więcej, jeśli mamy trochę linków sprawiających wrażenie nienaturalnych patrząc np. przez pryzmat przesadzonego udziału anchora w profilu linków, to pewnie prawie wszystkie te linki są nienaturalne, ale być może część z nich będziemy jednak chcieli zachować ze względu na szczególną wartość miejsca, w którym się pojawiają. Tu warto sobie pomóc np. parametrami „popularności”, a zwłaszcza widoczności danej strony w Google – tu mogą pomóc kolumny „SERP_VISIBILITY” i pokrewne. Wtedy możemy łatwo „odsiać” miejsca, które są odwiedzane np. przez 1000 żywych użytkowników wchodzących z wyszukiwarki.
– Program stara się rozpoznawać, czy link jest w treści posta, czy w stopce i podaje taką informację.
– Podajemy informacje dotyczące widoczności danego linka w wyszukiwarce w określonej tematyce (SERP_TOPIC, SERP_SUBTOPIC), mamy też w wersji beta rozpoznawanie tematyki na podstawie zawartości (PAGE_TOPIC) – wkrótce chcemy to zaktualizować. Te parametry w połączeniu z językiem strony pomagają odsiać „przypadkowe” miejscówki.
– Program w kolumnie „FORMULAS_SCORE”, po najechaniu na komórkę podaje uzasadnienie punktacji, co pomaga w zrozumieniu, dlaczego ocenia link tak a nie inaczej.
– Generalnie zawsze warto weryfikować linki przed zgłoszeniem ich do disavow. Nie mówiąc już o tym, że być może część z nich będziemy mogli zmodyfikować zamiast zupełnie usunąć (zwłaszcza tych w wartościowych miejscach, o czym wspominałem wyżej).
Podsumowując: w większości przypadków program powinien poprawnie oceniać linki, ale z pewnością warto rzucić okiem na to, co idzie do usunięcia. Pamiętajmy, że program patrzy na stronę i linki przez pryzmat pewnego „splotu” parametrów – podobne podejście stosuje Google, tyle, że algorytmy nie pokrywają się 1:1. 🙂
Clusteric Search Auditor – ref link oczywiście hehe 😉
a tak poważnie , dobre przydatne narzędzie – polecam do analizy profilu linków i łatwej selekcji dobrych i złych.
Ref wszedł przy okazji 😉 Do wczoraj nawet nie wiedziałem, że istnieją. Artykuł i tak chciałem napisać, bo narzędzie na prawdę bardzo pomaga także co tam 😉 Najważniejsze, że komuś być może pomogę.
Soft pierwsza klasa, ciekawe jak sie przyjmuje zagranicą gdzie spora konkurencja.
Soft przydatny w pracy ale jak zawsze na tego typu programy trzeba brać poprawkę i nie opierać wszystkiego na tego typu softach.
Ciekaw jestem co zaproponują osoby z BHS żeby wyjść z filtra 😉 Dalsze naparzanie linkami aby zatuszować „złe linki”
Jak pozycjonuje się po kimś, to nie ma opcji by opuścić sobie audyt linków. Nie chodzi tylko o to by przygotować i wgrać plik disavow, ale także zrozumieć, jak wygląda aktualna sytuacja strony i na jaki link building postawić by szybko poprawić ranking strony.
Super to wszystko opisałeś – dzięki za ten wpis, na pewno będzie dla mnie pomocny!:)
Analiza analizą (również korzystam regularnie z Clusterica), ale podstawowe pytanie brzmi skąd brać te dobre, „naturalne” linki? Wrzucać na social media zajawki i czekać aż magicznie same się pojawią? 😉
Apropos poruszonego tematu, zastanawiam się, co się stanie jeśli np. konkurencja przyłoży ze 100 000 linków GSA czy innym XRummerem? Jak zareagują roboty Google? Czy da się przed tym obronić (nie mówię tu o zaufanych, 15-letnich domenach z TF na poziomie 50)? Ktoś ma jakieś doświadczenia i podzieliłby się wnioskami?
Genialny soft o potężnych możliwościach. Jak bawiłem się tym softem to poza audytami linków fajnie wychodziło poszukiwanie domen 🙂
Racja ;). Naprawdę fajna sprawa, szczególnie biorąc pod uwagę duże możliwości wychodzące też poza zakres audytu linków.
Soft bardzo dobry, jakoś nie mogę się zebrać aby to wszystko skonfigurować. Zapisy odnośnie depozycjonowania wydają mi się mało prawdziwe. Gdyby to działało, to dzisiaj wszyscy zamiast pozycjonować tylko by depozycjonowali. Na pewno starych domen to nie rusza. Nowe domeny, pewnie depozycjonować można.
Czyli wychodzi na to, że najlepszym sposobem nic nie pozycjonować tylko usuwać . ) – soft wygląda ciekawie.
Ciekawy artykuł 🙂 Bardzo dobrze rozpisałeś poszczególne kroki w analizie linków. Zgadzam się z odnośnikami, które koniecznie należy zweryfikować by nie podpaść Pingwinowi. Google nigdy nie pozwoli się nudzić pozycjonerom 🙂 Pozdrawiamy
W sumie to dobrze, że Pingwin działa teraz w real-time, bo dzięki temu na bieżąco można śledzić co jest dobre dla pozycjonowanej strony, a co nie…
Nie znałem tego programu, ale po artykule widać, że ma ogromny potencjał i trzeba będzie go zakupić i rozpocząć zabawę. Smutne, że niektóre firmy depozycjonują konkurencję zamiast zabrać się za robotę i ją po prostu przeskoczyć.
Kurczę już kilka razy przymierzałem się do testów, ale jakoś zawsze czasu brak, żeby wszystko ogarnąć… natomiast po przeczytaniu artykułu znów mam motywację 🙂
Kolejna motywacja by przetestować Clusteric’a 🙂
Niezły program, przydatny m.in jeśli ktoś przejął do dalszych prac już pozycjonowaną domenę i chce ocenić profil linków.
Także dla chcących ułatwić sobie, wykonywać szybciej i profesjonalniej swoje prace.
Ja do tej pory korzystałem z seo odkurzacza, ale widzę, że pomyślano nawet o ofercie dla użytkowników seo odkurzacza i kosztowa wygląda to całkiem przyjemnie:)
fajny materiał dzięki , non stop problem z tymi linkami 😉
Świetny program. Chętnie będę z niego korzystać
Ciekawe, dobry program, będę musiał spróbować.
Przydatny program szczególnie obecnie kiedy łatwiej można dostać karę.
Bardzo przydatny poradni odnośnie obsługi i analizy danych w programie. Tak trzymać!