SearchBrothers – Ściągają kary bez wchodzenia w linki?

10 0

Nie będę oszukiwał, czasami trochę śledzę byłych pracowników Google (publikacje, szkolenia, wywiady), również Kaspara Szymańskiego i Fili’ego Wiese’a, którzy w tym momencie jednoczą swoje siły oferując prawdopodobnie jedne z najwyższej jakości usług seo na całym świecie, pod swoją wspólną marką, którą nazwali Search Brothers.

Kilka lat temu podczas prezentacji prowadzonej przez Search Brothers, udzielali oni porad jak znaleźć toksyczne linki i skutecznie ściągnąć karę od Google zarówno tą ręczną jak i algorytmiczną. Oczywiście ze slajdów można wydobyć prawdopodobnie tylko 1% tego co przekazali swojej widowni jednak sugerują one, że to co należy zrobić po zgromadzeniu wszystkich możliwych informacji o linkach prowadzonych do ukaranej strony to odnaleźć i pogrupować je na podstawie wzorców.

Na slajdach wyraźnie widzimy tylko adresy url, nie ma ani słowa o sprawdzaniu zawartości podstron aczkolwiek trudno wykluczyć to, że nie zostało to powiedziane. I to tutaj po raz pierwszy przeszło mi przez myśl pytanie, czy można usunąć karę na podstawie samych adresów url? W dalszej kolejności następuje usuwanie linków, zmiana ich atrybutu na nofollow, zgłaszanie ich przy użyciu narzędzia do zrzekania się linków disavow tools oraz w przypadku kar ręcznych, wysyłanie prośby o ponowne rozpatrzenie.

1

 

Autorskie narzędzie

W trakcie ostatnich dni Search Brothers przeprowadzili trening oraz ponownie przemówili na łamach jednego z największych spotkań specjalistów sem i seo. (BrightonSEO) To co przykuło moją uwagę to narzędzie, które stworzyli na swoje własne potrzeby w temacie ściągania kar. Osoby, które były tak blisko Google i całej tej walki ze spamem oraz karami na pewno posiadają bardzo cenną wiedzę i ograniczają się w trakcie ratowania sytuacji swoich klientów tylko do tego co jest niezbędnie konieczne.

A zatem jak wygląda to narzędzie i co oferuje? na to pytanie koniecznie chciałem poznać odpowiedź no i jest.

 

Prawdopodobnie jesteście jednymi z pierwszych osób, które widzą jak wygląda panel bowiem nikt oprócz autorów nie ma jeszcze do niego dostępu. (możliwe, że to się wkrótce zmieni, ja na pewno bym nie pogardził)

xpowerdrill-desk.png.pagespeed.ic.V-rUI154-JyNHW5HutSR

 

To co widzimy to możliwość wklejenia listy, na pewno linków ale możliwe, że nie tylko. Możliwość wygenerowania pliku disavow, cofanie zmian, powtarzanie, eksport do pliku csv itp. Podobno w trakcie szkolenia, byli pracownicy Google za pomocą wyrażenia regularnego użytego w tym narzędziu, otworzyli pliki robots.txt dla kilku domen jednocześnie. W jakim celu? nie mam pojęcia ale skoro to zrobili to bardzo możliwe, że w jakiś sposób może się to przydać w trakcie ściągania kar.

1

 

Wracając do tematu, kolejne możliwości jakie widzimy to bardzo często używane i niezwykle przydatne w trakcie diagnozowania problemów z linkami opcje, które umożliwiają usuwanie zduplikowanych linków, domen itp. Ciekawą nowością są tutaj niecodzienne możliwości, których nie ma w wielu innych bardzo popularnych narzędziach pomagających w poszukiwaniu nienaturalnych linków. Mianowicie chodzi o wzorce i dosyć rozbudowane sposoby na ich łączenie, dzielenie, sortowanie itp. Na slajdach ze starej prezentacji również został położony na nie akcent tak więc musi to być kluczowe.

 

Ale czy to wystarczy?

Trudno stwierdzić. Po przeglądnięciu znalezionych materiałów, przeczytaniu wywiadów itd. mam wrażenie, że jest to możliwe. Oczywiście wydaje się, że w przypadku kar ręcznych sprawa może być nieco trudniejsza ponieważ to pracownik Google podejmuje ostateczną decyzję i ma wgląd w absolutnie wszystko, także może się czasem czepiać.

Ale w czy dzieje się tak samo podczas usuwania kar nałożonych przez sam algorytm typu Penguin lub w przypadku filtrów algorytmicznych nałożonych na konkretne frazy? Czy może jednak wystarczy tylko odnaleźć problemy widoczne w adresach url?

Osobiście myślę, że wejście na stronę jest konieczne. Dzięki temu możemy ocenić jej jakość, sens wstawienia linku oraz inne czynniki, które mogą być brane pod uwagę przez algorytm. Nazwy odnośników (anchory), nasycenie treści, unikalność itd.

Ale mimo wszystko nadal patrząc na panel tego narzędzia i prezentację, dopuszczam możliwość, że możemy robić coś na wyrost i algorytm nakładający kary wyciąga wnioski na podstawie innych czynników niż nam się to wydaje. Realnym może być również fakt, że sortowanie adresów url na podstawie schematów, które je łączą jest tylko jednym z wielu kroków podczas którego wyłapywany jest tylko i wyłącznie największy spam.

 

Inne ciekawostki

To czym jeszcze podzielili się byli pracownicy Google to, że w przypadku zniknięcia powiadomienia z narzędzi Google dla webmasterów, kara została rzeczywiście zniesiona. Zwyczajnie przestała być aktualna z jakichkolwiek przyczyn, na przykład usunięcie problemu, zmiana w algorytmie i wygaśnięcie okresu jej trwania.

Co ciekawe na odpowiedź w sprawie prośby o ponowne rozpatrzenie możemy czekać od 6 godzin o czym jeszcze nie słyszałem, bo zajmuje to conajmniej 4 dni aż do 2ch miesięcy.

I na koniec okazuje się, że pomimo innych ważnych czynników jakim jest na przykład usuwanie lub zrzekanie się nienaturalnych linków, najważniejsze jest przekonanie człowieka znajdującego się po drugiej stronie. A zatem jak już wcześniej napisałem, ostateczna decyzja należy do pracownika Google, a ci swoją drogą czasami potrafią być bardzo zawzięci.

2

 

Bonus

Jakiś czas temu nie chcieli ściągnąć kary dla jednej strony ze względu na 1 link dofollow z komentarza, którego anchorem było imię. (Na jednej ze stron księcia polskiego BlackHatu 😉 ) Trzy razy podali tylko ten adres w przykładach nienaturalnych linków, a strona nie miała już innych i dopiero po jego całkowitym usunięciu udało się ściągnąć karę. Co mnie trochę dziwi, bo niby skąd typowy użytkownik miałby wiedzieć, że ten konkretny blog w przeciwieństwie do zdecydowanej większości, daje linki dofollow w komentarzach?

Rater jak widać wie lepiej, link był umieszczony celowo aby manipulować przepływem PageRank i przynieść stronie z branży budowlanej wysokie pozycje na imię autora komentarza 😉

Swoją drogą może chciał mi po prostu przekazać, że lepiej jest nie czytać takich blogów, trzymać się od nich z daleka i skupić na White Hat Seo czyli naturalnym budowaniu wysokich pozycji poprzez nieustanne zwiększanie zadowolenia użytkowników.

5/5 - (1 vote)

10 komentarzy dla “SearchBrothers – Ściągają kary bez wchodzenia w linki?

  1. Narzędzie do filtrowania danych i wyszukiwania na patternach to mam już od ponad roku 🙂
    Ps. Ułatwia pracę ale nie zrobi za nas disavow. Takie narzędzia tylko lub aż wspomagają pracę, mogą przyśpieszyć proces odfiltrowywania ale nie będą „myśleć” za nas. Być może autorom tego softu uda się zaimplementowanie algorytmu dodam że skutecznego, co będzie trafnie oceniał odsyłacze, jednak jest to mega trudne zadanie.

    1. Zgadzam się, dla tego napisałem, że odwiedzenie linku jest dla mnie bardzo istotne i wręcz konieczne. Pytanie brzmiało czy aby na pewno? Co do Twojego narzędzia, podzieliłbyś się nim w końcu 😉 (widziałem)

  2. „Najważniejsze jest przekonanie człowieka znajdującego się po drugiej stronie” nie zgodze sie do konca z tym. Pewnego razu zrobilismy test gdzie w prosbie pisalismy „blablabla”, „lorem ipsum”, „costamcostam” i po 3 razie dostalismy pozytywna odpowiedz. Sytuacja na 3 roznych stronach o roznej jakosci. Prosba o usuniecie filtra to loteria a wynik zalezy od tego czy pracownik Google dzien wczesniej mial udane pozycie, nie ma kaca a i kawa z rana musi smakowac 😉

    1. Ja twierdze, że po ręcznym nałożeniu kary, późniejszej integracji człowieka nie ma, w bazie są już zapisane wszystkie nienaturalne linki i jeśli je wszystkie zneutralizujemy i wyślemy RR to kara ściągana jest automatycznie, jeśli nie to znowu automat przesyła nam przykładowe linki z jego listy. Stąd też treść wiadomości przy wysłaniu ponownej prośby nie ma znaczenia.

    2. Było wiele takich sytuacji więc jest to możliwe ale z drugiej strony jeżeli jednak rozpatrują te wnioski ludzie to „też są oni ludźmi” 😉 I możliwe, że jak widzą naprawioną sytuację to nawet nie wchodzą w szczegóły takie jak czytanie wiadomości tylko zwyczajnie odhaczają filtr i sprawdzają kolejną domenę.

  3. Niestety to co widać na slajdach wygląda wyłącznie na półautomatyczne przetwarzanie linków, czyli to co każdy z nas robi – z tych samych źródeł, a potem w mniej lub bardziej czasochłonny sposób buduje na nich podstawie disavow. Ciekawe czy za tym toolem stoi coś więcej niż regexy.

  4. „Osobiście myślę, że wejście na stronę jest konieczne. Dzięki temu możemy ocenić jej jakość, sens wstawienia linku oraz inne czynniki, które mogą być brane pod uwagę przez algorytm.” – to teraz postaw sobie pytanie czy algorytm „wchodzi i patrzy” na stronę. Oczywiście, że nie – nie jest człowiekiem i musi opierać się na różnego rodzaju parametrach, których zdobycie nie wymaga otwierania i oglądania strony super fachowym okiem seowca.

    A co do tego, że człowiek z SQT będzie siedział i przeglądał Twoje linki… w takie bajki, to ja już w przedszkolu nie wierzyłem 😉

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *