Strona spadła w google? napraw problem

42 17
Powiedz innym o tym wpisie 😉

Forum Google dla webmasterów pełne jest tematów zaczynających się od słów „nagły spadek pozycji strony w Google„, „strona spadła w Google” oraz „moja strona zniknęła z Google„. Milion pytań w których przeważnie chodzi o to samo oraz tyle samo odpowiedzi pomimo faktu, że te ostateczne w większości również są takie same. Zbierając do jednego worka wszelkie rozwiązania związane z powyższymi pytaniami opisałem pierwsze kroki na drodze do tego co należy zrobić alby strona wróciła na swoje dawne pozycje lub choć trochę podniosła się po upadku jeżeli istnieje szansa jeszcze to zrobić.

 

Szukamy przyczyny spadków

Niewątpliwie najważniejszą czynnością w drodze do odzyskania dobrej widoczności czy też wysokich pozycji na konkretne słowa kluczowe w wynikach wyszukiwania jest zdiagnozowanie problemu. Dla czego jest to takie ważne? ponieważ wdrażając po omacku zmiany, które znajdziemy w odpowiedzi dla innych użytkowników, możemy sobie narobić znacznie większych szkód. Należy też pamiętać o tym, że każda strona jest inna, każda wymaga innego podejścia i problemy choć z pozoru mogą być identyczne, wcale takie być nie muszą.

spadek pozycji

 

Powiadomienie w narzędziach Google dla Webmasterów

W pierwszej kolejności logujemy się do narzędzi Google dla Webmasterów i jeżeli nie podłączyliśmy tam jeszcze naszej strony, należy to zrobić. Wszelkie obawy odnośnie mitów, które mówią o tym, że podłączając GWT i Analytics dajemy Google swoją witrynę na tacy możemy pominąć, ponieważ nie zobaczymy tam niczego o czym oni już by nie wiedzieli. Pomijając Analytics oczywiście, bo o tym co robią użytkownicy na naszej stronie raczej nie wiedzą choć nie jest żadną tajemnicą to, że przeglądarka Chrome dostarcza im takich informacji. W każdym razie, dodajemy swoją witrynę dwa razy, z www i bez www. Jeżeli korzystamy z protokołu https można dodać również kolejne dwa adresy tak samo jak poprzednio ale tym razem poprzedzając je w adresie fragmentem „https://”.

3d584c05d661001dd6c77d937adf09b8_1

 

Następnie musimy ją zweryfikować za pomocą jednej z sugerowanych metod. Kiedy strona została już dodana, musimy odwiedzić zakładkę w której w razie konieczności, Google informuje nas o nałożonej karze ręcznej. Przechodzimy do niej za pomocą lewego menu, klikając na opcje „Ruch związany z wyszukiwaniem„, a następnie „Ręczne działania„.

Ręczne działania GWT

 

I w tym momencie możemy napotkać kilka scenariuszy oraz dwa stopnie dopasowania, dopasowanie ścisłe, które zostało zastosowane w obrębie całej domeny i czasem również w stosunku do subdomen oraz dopasowanie częściowe, które może dotyczyć konkretnej części witryny lub subdomeny/subdomen. Dodatkowo warto zaznaczyć, że nawet po zdjęciu kary i zniknięciu komunikatu, może zawsze pojawić się następny ponieważ algorytm znalazł kolejny problem z witryną.

 

Działania ręczne Google

Poniżej znajduje się lista wszystkich możliwych komunikatów, które mogą się pojawić w zakładce „Ręczne działania”, streszczenie powodu nałożenia kary oraz nieco szersza odpowiedź Matta Cuttsa na ich temat:

(filmy posiadają Polskie napisy)

W witrynie nie znaleziono działań przeciwspamowych – Czyli nie została nałożona przez Google kara ręczna, aczkolwiek nie jest to wcale równoznaczne z faktem iż strona ma się dobrze.

Nienaturalne linki do Twojej witryny – dotyczy linków – Algorytm Google znalazł wzorzec nienaturalnych linków prowadzących do witryny jednak podjął działania tylko wobec nich, a nie całej witryny. Prawdopodobnie część profilu linków kierujących do danej strony została uznana za nienaturalne z powodu źródła ich pochodzenia, które mogło zostać ukarane lub uznane za niskiej jakości. SWL, precle, zaspamowane fora itp.

Nienaturalne linki do Twojej witryny – dotyczy linków

Nienaturalne linki do Twojej witryny – Algorytm Google znalazł nienaturalne linki do strony oraz podjął działania mające na celu obniżenie jej pozycji w wynikach wyszukiwania. Tutaj sytuacja jest podobna do poprzedniej ale na znacznie większą skalę. Znaleziono wzorzec nienaturalnych linków, który przeważa nad linkami wydającymi się z pozoru na naturalne.

Nienaturalne linki do Twojej witryny

Nienaturalne linki z Twojej witryny – Google znalazło wzorzec nienaturalnych linków wychodzących z naszej strony, które przekazują PageRank. Najprościej mówiąc wszelkie wymiany bannerów, nietematyczne linki, udział w systemach wymiany linków i linki sitewide (identyczne w obrębie całej domeny). Podstawowym szablonem jest tutaj fakt o linkach wychodzących z każdej możliwej podstrony serwisu.

Nienaturalne linki z Twojej witryny

Witryna zaatakowana przez hakerów – Strona padła ofiarą ataku i jest używana do manipulowania przepływem PageRank innych stron internetowych. Taka sytuacja ma miejsce w momencie kiedy skrypt nie jest dobrze zabezpieczony oraz aktualizowany na bieżąco. Dzięki dziurom, które zostały w nim znalezione, spamerzy umieszczając swoje linki na naszej stronie czasem nawet w taki sposób, że są one dla nas całkowicie niewidoczne. (cloacking)

Mało treści o niewielkiej lub żadnej wartości – Google ocenia stronę jako niskiej jakości, ubogą w wysokiej jakości przydatną treść. Najczęstszym powodem jest duża ilość podstron z niewielką ilością zawartości typową dla katalogów stron i najgorszych precli. Możemy ustalić, że tekst na stronie o średnim site po odliczeniu zduplikowanych elementów, mieści się w granicach ok 500 znaków lub też mniej na każdej z podstron.

Mało treści o niewielkiej lub żadnej wartości

Czysty spam – W większości przypadków zawartość strony jest w znacznym stopniu zduplikowana z innymi, które już znajdują się w indeksie. Taka sytuacja ma najczęściej miejsce w momencie kiedy bazujemy na czyiś treściach. Wszelkiego rodzaju precle i katalogi seo o nikłej wartości, gdzie użytkownicy masowo dodają identzcznie takie same wpisy jak w innych oraz strony pobierające lub generujące automatycznie swoją zawartość na podstawie danych pobranych z innych stron bez najmniejszego ładu i sensu.

Czysty spam

Spam tworzony przez użytkowników – Przeważnie chodzi tutaj o niskiej jakości komentarze oraz linki z nich wychodzące na stronie. Problem bardzo często dotyka właścicieli for internetowych oraz blogów z wyłączoną moderacją nowych treści, gdzie narzędzia spamerów masowo publikują bezsensowne treści z linkami lub też czasem nawet robią to ręcznie.

Spam tworzony przez użytkowników

Maskowanie i/lub podstępne przekierowania – Wykryto próby oszukiwania algorytmu po przez dostarczanie innej treści użytkownikom, a innej robotom Google. Cloacking, czyli próba ukrycia spamu przed użytkownikami tak aby Googlebot jednocześnie ją widział i naliczał punkty za przykładowo nasycenie słowami kluczowymi, linki oraz dziwne przekierowania mające na celu przeniesienie PageRanku z innych podstron na tą na której wysokiej pozycji nam zależy.

Maskowanie i lub podstępne przekierowania

Ukryty tekst lub upychanie słów kluczowych – Znaleziono próbę sztucznego przesycenia zawartości strony po przez upychanie słów kluczowych. Wszelkie elementy ukryte po za ekranem monitora za pomocą CSS, niewidoczne dla użytkownika lub też usilne powtarzanie słów kluczowych w treści, a także i stopki przepełnione frazami bez najmniejszego sensu ich istnienia.

Ukryty tekst i lub upychanie słów kluczowych

Spamerskie darmowe hosty – Spam znaleziony na subdomenach nad którymi mają kontrolę użytkownicy. Typowy problem dla właścicieli serwisów oferujących darmowe platformy blogowe, które są wykorzystywane przez spamerów do tworzenia zaplecz oraz innych miejsc pod linki.

Spamerska struktura znaczników – Ten komunikat pojawia się w momencie kiedy zawartość strony przekłamuje roboty w temacie opisów rozszerzonych. (schema.org) Sytuacja ma miejsce w momencie gdy na siłę dostarczamy wyszukiwarce informacje o znacznikach nawet jeżeli nie mają one najmniejszego sensu czy też prawa bytu, a także są zupełnie niewidoczne dla użytkowników lub też nie spełniają wymogów odnośnie konieczności ich umieszczania.

 

Strona zniknęła z indeksu Google

Zależnie od kary nałożonej przez Google, strona może nadal istnieć w indeksie ale może też się okazać, że została z niego usunięta. Istnieje bardzo prosty sposób na to aby sprawdzić czy nasza strona nadal się w nim znajduje, a służy do tego polecenie „site:www.domena.pl” po którego wpisaniu w pole wyszukiwania, powinny pojawić się podstrony naszej witryny.

indeks google

Oczywiście możemy tutaj również zastosować kilka innych składni aby dowiedzieć się co Google posiada w swoim indeksie. Jeżeli po sprawdzeniu naszej witryny za pomocą komendy site, nie zostaną nam zwrócone żadne wyniki z nią związane, może to oznaczać tylko dwie rzeczy. Albo strona jest nowa i Google nie posiada o niej jeszcze żadnych informacji, albo została usunięta z indeksu i w konsekwencji, wyników wyszukiwania. Dokładny powód takiej sytuacji możemy znaleźć w narzędziach Google dla Webmasterów w zakładce „Ręczne działania” .

Poniżej znajduje się kilka przydatnych sposobów wykorzystania komendy „site”:

site:domena.pl – zawartość indeksu dla domeny „domena.pl” oraz jej wszystkich subdomen
site:www.domena.pl – wyświetlamy zawartość indeksu dla domeny www.domena.pl
site:www.domena.pl „słowo kluczowe” – przydatne podczas sprawdzania filtrów algorytmicznych
site:www.domena.pl/nazwa-podstrony – sprawdzamy czy podstrona „nazwa-podstrony” znajduje się w indeksie

 

Filtr algorytmiczny

Czasami algorytm z jakiegoś powodu cofa dane podstrony lub też całą stronę na konkretne słowa kluczowe bez powiadomienia nas o tym fakcie. Przyczyn może być wiele, przesycenie słów kluczowych, uznanie treści za mało wartościową, zduplikowana treść lub też balans na granicy tuż przed otrzymaniem powiadomienia. (Chociaż w bardzo wielu przypadkach okazuje się, że strona nie została dotknięta filtrem algorytmicznym lecz zupełnie innym, na przykład algorytmem Panda)

 filtr algorytmiczny

Istnieje sposób aby móc sprawdzić czy strona posiada filtr algorytmiczny, jednak nie zawsze może się nam to udać. Służą temu poniższe zapytania, które wpisujemy w pasek wyszukiwania Google:

site:www.domena.pl „słowo kluczowe” – sprawdzamy, czy Google widzi szanse na umieszczenie naszej domeny lub jednej z podstron na konkretne słowo kluczowe.

www.domena.pl „słowo kluczowe” – tym razem już bez „site:”, sprawdzamy czy wyszukiwarka zwróci chociażby jeden wynik dotyczący naszej witryny.

Obie komendy najlepiej jest wpisać w trybie incognito przeglądarki, aby nie otrzymać informacji czy też wyników spersonalizowanych. Jeżeli pierwsze zapytanie zwróciło nam jakiś wynik i nasza strona ma szanse na udział w rankingu na to słowo, to drugie zapytanie również powinno zwrócić nam wynik. Z racji tego, że w pierwszej kolejności podaliśmy także nazwę domeny, powinna ona się pojawić na pierwszym miejscu. Jeżeli natomiast algorytm z jakiś powodów cofa stronę w wynikach, pojawi się ona na bardziej odległych miejscach lub też może się nie pojawić nawet wcale.

Nie jest to jednak rozwiązanie doskonałe. Możemy to wytłumaczyć domyślnym założeniem, że Google nadaje punkty stronie zależnie od zapytania. Nasza posiada ich standardowo powiedzmy 100, w momencie kiedy algorytm nakłada filtr na stronę, odbiera jej 50 z tych punktów więc ma teraz mniej niż inne strony przez co pojawi się niżej niż one nawet kiedy wpiszemy nazwę domeny w zapytaniu. Niestety nie wiadomo na pewno jak to do końca działa, więc można również założyć, że filtr algorytmiczny czasami zabiera mniej punktów lub też strony znajdujące się poniżej posiadają ich mniej. W takim wypadku nasza może nadal pojawiać się na pierwszym miejscu mając nałożony jednocześnie filtr algorytmiczny.

Więcej informacji odnośnie sposobów na pozbycie się lub ominięcie tego rodzaju kary znajduje się w artykule, który nieco bardziej wyczerpująco opisuje w jaki sposób można ściągnąć filtr algorytmiczny lub też zwyczajnie go ominąć.

 

Problemy z linkami

Kiedy pozycje strony spadają, powiadomienia w narzędziach Google dla webmasterów nie ma i wszystko wydaje się być w porządku, może okazać się iż powodem spadku jest utrata części linków. To naturalne, że każda strona z czasem takie posiada nie jednak w momencie kiedy utracimy te, które algorytm uznał za kluczowe dla wysokich pozycji witryny, może ona stracić na widoczności. W jaki sposób można sprawdzić ilość utraconych linków oraz ich stosunek względem nowych? Istnieje wiele narzędzi, które mogą dostarczyć nam takich informacji. Poniższy przykład pochodzi z narzędzia do analizy linków przychodzących Ahrefs.

ahrefs

Szczerze mówiąc, akurat ta strona pomimo utraty linków ma dosyć spore wzrosty pozycji bowiem wśród tych utraconych/usuniętych znajdują się nienaturalne linki, które wpływały na obniżenie jej pozycji. Analogicznie, gdyby to były jednak naturalne linki dobrej jakości, strona spadłaby na swoje słowa kluczowe.

 

Depozycjonowanie

W ostatnich latach rozrosła się również jedna z najczarniejszych nisz jaką jest depozycjonowanie. Cała sztuka polega na tym aby za pomocą dużej ilości nienaturalnych linków, zaszkodzić stronie konkurencji. Jeżeli nasza strona padła ofiarą takiego działania, możemy to również zaobserwować zarówno w Ahrefsie jak i narzędziach Google dla webmasterów, a zazwyczaj objawia się to dużą ilością nowych linków przychodzących lub też przekierowaniem ukaranych domen na adres naszej. W tym przypadku lepiej spisuje się GWT ponieważ pokazuje linki przechodzące przez przekierowanie oraz wszelkie inne niewidoczne dla innych robotów niż Googlebot, np. robot Ahrefs. (blokowanie robotów innych niż należące do Google jest powszechnie stosowaną praktyką, której celem jest ukrycie informacji dotyczących linków zwrotnych chociażby przed konkurencją)

 

Jak sprawdzić czy padliśmy ofiarą depozycjonowania?

Wchodzimy do narzędzi, klikamy w miejsca wskazane przez strzałki w kolejności od góry do dołu i analizujemy słowa, które znajdują się na pełnej liście zakładki „Jak wyglądają linki do Twoich danych”.

To czego szukamy to słowa typowe dla stron pornograficznych, dotyczące hazardu, viagry itp. Wszystko co nie jest zgodne z zawartością witryny oraz może zostać uznane jako spam.

gwt

Nie zawsze jednak depozycjonowanie opiera się na przekierowaniach lub też linkach przychodzących na zaspamowane frazy. Czasami wykorzystywane są do tego słabe miejsca, ze złą historią, ukarane itp. ale frazy jak najbardziej zgadzają się z tymi na których nam zależy. W takiej sytuacji możemy sprawdzić jak wygląda przyrost linków prowadzących do naszej strony. Pomaga w tym wiele narzędzi ale można to również zrobić przy pomocy samego Excela.

W tym celu wykonujemy wszystkie kroki tak jak na obrazach w kolejności strzałek, od góry do dołu:

google tools

A następnie pobieramy listę najnowszych linków (najlepiej jest zapisać je do csv):

webmaster tools

Otwieramy plik w programie Excel, zaznaczamy pierwszą kolumnę (całą), wybieramy opcję „dane”, następnie „tekst jako kolumny”, klikamy „dalej”, zaznaczamy w lewym górnym rogu opcję „Przecinek”, „dalej” i „zakończ”:

import danych gwt

Teraz zaznaczamy dwie pierwsze kolumny, również w całości, wybieramy z górnego menu opcję „wstawianie” i po lewej stronie „tabela przestawna”, a następnie „ok”. Po prawej stronie pojawia się pasek w którym przeciągamy „pierwsze wykrycie” jako „wiersze” oraz „linki” jako „wartości”.

tabela przestawna

Ponownie zaznaczamy dwie pierwsze kolumny, wybieramy z menu opcję „wstawianie” oraz wybieramy dowolny z wykresów. Efekt wygląda następująco:

wykres znalezionych linków

Jeżeli w jakimś okresie liczba linków drastycznie wzrosła, zapamiętujemy datę, wracamy do arkusza z listą źródeł z których pochodzą i sprawdzamy je na wyrywki czy znajdują się w rozsądnych miejscach oraz mają jakikolwiek sens. W ten sposób możemy poznać przybliżoną datę ataku oraz w szybkim tempie stworzyć listę domen wykorzystanych do depozycjonowania w celu zrzeknięcia się tych linków za pomocą narzędzia disavow tool.

 

Aktualizacje algorytmu Google

W trosce o najwyższą jakość wyników wyszukiwania, Google stara się aby były one jak najlepiej dopasowane do wpisywanych przez użytkowników fraz kluczowych oraz aby były wolne od wszelkiego spamu i stron, które za pomocą technik niezgodnych z wytycznymi Google, pozycjonerzy starają się umieścić na szczycie rankingu.

Aby jednak to się udało, pomaga im wiele algorytmów, które oceniają wartość strony na podstawie różnych czynników i są one nieustannie ulepszane.
Najbardziej znane oraz mające największy wpływ na pozycje naszej witryny w dłuższym okresie czasu algorytmy to Panda i Penguin.

 

Algorytm Penguin

Algorytm penguin jest odpowiedzialny za wykrywanie nienaturalnych linków przychodzących do strony, a jego działania są cykliczne. Aby zdiagnozować czy spadek pozycji i widoczności strony w wynikach wyszukiwania został spowodowany przez karę nałożoną przez algorytm Penguin, należy sprawdzić czy owe spadki nie nastąpiły w okolicach dni kiedy aktualizacja tego algorytmu miała miejsce.

Do tej pory doczekaliśmy się czterech aktualizacji tego algorytmu.google penguin

Daty aktualizacji algorytmu Penguin:

Penguin 1.1 – 25 maj 2012
Penguin 1.2 – 05 październik 2012
Penguin 2.0 – 22 maj 2013
Penguin 2.1 – 04 październik 2013

I właściwie na dniach możemy się spodziewać kolejnej odsłony zatytułowanej Google Penguin 3.0 ponieważ zgodnie z przewidywaniami powinna się ona pojawić już dawno temu.

Jeżeli strona została ukarana przez algorytm Penguin, największym problemem jest to, że nawet po zdiagnozowaniu przyczyn oraz ich usunięciu, szanse na większy powrót zarówno pozycji jak i widoczności mamy dopiero w momencie kolejnej aktualizacji lub przy pomocy metody przekierowania wykonanego w odpowiedni sposób. W przypadku stron ukaranych przez Penguin 2.1 nadal nie odnotowano rzetelnego przypadku domeny, której udało się wrócić wyżej niż 2/3 widoczności jaką miała przed nałożeniem kary. Dodatkowo warto wspomnieć, że w wielu powyższych przypadkach, webmasterzy nie otrzymali powiadomienia o nałożeniu kary w narzędziach Google dla webmasterów.

 

Algorytm Panda

Algorytm Panda jest odpowiedzialny za ocenianie strony na podstawie jej zawartości. Przyjęło się, że jednym z najważniejszych z nich jest ilość wyświetlanych reklam. Jednak jest ich znacznie więcej.

Tak pokrótce, Panda zawiera w sobie cały algorytm Page Layout, sprawdza strony pod kątem zduplikowanych treści, przydatności i wrażeń użytkowników oraz również jest algorytmem wypuszczanym cyklicznie. Jednak w tym przypadku ma to miejsce znacznie częściej, bo średnio raz w miesiącu. Do tej pory miało miejsce 29 aktualizacji tego algorytmu z czego pierwsze sześć nie dotknęło wielu krajów nieanglojęzycznych, w tym oczywiście zapytań w języku Polskim.

google panda

Daty aktualizacji algorytmu Panda:

Panda 1.0 – 24 luty 2011
Panda 2.0 – 11 kwiecień 2011
Panda 2.1 – 09 maj 2011
Panda 2.2 – 18 czerwiec 2011
Panda 2.3 – 22 lipiec 2011
Panda 2.4 – sierpień 2011
Panda 2.5 – 28 wrzesień 2011
Panda 2.5.1 – 09 październik 2011
Panda 2.5.2 – 13 październik 2011
Panda 2.5.3 – 19-20 październik 2011
Panda 3.1 – 18 listopad 2011
Panda 3.2 – około 15 styczeń 2012
Panda 3.3 – o 26 luty 2012
Panda 3.4 – 23 marzec 2012
Panda 3.5 – 19 kwiecień 2012
Panda 3.6 – 27 kwiecień 2012
Panda 3.7 – 08 czerwiec 2012
Panda 3.8 – 25 czerwiec 2012
Panda 3.9 – 24 lipiec 2012
Panda 3.9.1 – 20 sierpień 2012
Panda 3.9.2 – 18 wrzesień 2012
Panda 20 – 27 wrzesień 2012
Panda 21 – 05 listopad 2012
Panda 22 – 04 grudzień 2012
Panda 23 – 21 grudzień 2012
Panda 24 – 22 styczeń 2013
Panda 25 – 25 marzec 2013
Panda 26, 18 lipiec 2013
Panda 4.0 – 20 maj 2014

 

Szanse na powrót pozycji

Odpowiedź na to pytanie zależy od wyniku jaki zwróci nam zdiagnozowanie problemu z witryną i nie będzie ani jednoznaczna ani też konkretna. Kary ręczne w zależności od przewinienia mogą zostać wycofane w zakresie od 3ch dni do kilku miesięcy od momentu usunięcia ich przyczyny, wysłania prośby o ponowne rozpatrzenie. Dla czego tak długo? ponieważ po takim czasie zazwyczaj przychodzą odpowiedzi od pracowników Google. W ostatnich latach czas ten i tak bardzo się skrócił i chyba nie zdarzyło się jeszcze aby ktoś czekał na odpowiedź dłużej niż jeden miesiąc. Oczywiście czasami może się tak zdarzyć, że nie dostaniemy odpowiedzi wcale ale równoznaczne z pozytywnym rozpatrzeniem prośby o ponowne rozpatrzenie oraz wycofanie działań ręcznych w stosunku do witryny jest zniknięcie komunikatu o nałożeniu kary ręcznej z narzędzi Google dla webmasterów.

Podobny czas oczekiwania na to aż pozycje wrócą mniej więcej na swoje miejsce jest w momencie kiedy usuniemy przyczyny nałożenia na stronę filtru algorytmicznego. Tutaj jednak cała diagnostyka jest dosyć ciężka i należy sprawdzić kondycję całej witryny aby nie odłączyć zbyt wiele, ponieważ możemy odłączyć sobie również szanse powrotu na dawne miejsca.

Przy Pandzie tak jak wspomniano już wcześniej, jest to okres około miesiąca czasu od momentu naprawy problemu, przy Penguinie jest to czas aż do kolejnej aktualizacji.

Do tego czasu należy również dodać fakt iż Google nie przeindeksuje zawartości całej naszej strony ani stron, które miały lub też nadal posiadają linki do naszej witryny w ciągu kilku dni. Stąd też biorą się też czasem absurdalne odpowiedzi od Google, że na jakiejś stronie znajduje się link do nas pomimo tego, że już go tam nie ma.

 

Strona spadła w google? napraw problem
5 (100%) 2 votes
Powiedz innym o tym wpisie 😉

42 komentarze dla “Strona spadła w google? napraw problem

  1. Spoko podsumowanie, w sumie można by z tego stworzyć 3 arty z tego jednego.

    Walidacja na komentarzach „Stolica Polski to ?” nie powinna obniżać UX, ale kto tak tych pozycjonerów wie 😉

  2. Fajny tekst ale tu jest chyba tylko jedno małe „ale”…
    Jeśli strona jest ustawiona na „bez www” to komenda site:www.domena.pl „słowo kluczowe” może nie działać prawidłowo, wtedy należy wklepać:
    site:domena.pl „słowo kluczowe”

    1. Zgadza się, pominąłem opis tego problemu żeby nie mieszać jeszcze bardziej (większość stron i tak zaczyna się od www). Jeżeli preferowana wersja domeny jednak nie zaczyna się od www, musimy skorzystać z site:domena.pl tak jak napisałeś ale w przypadku istnienia subdomen, ich indeks również zostanie wyświetlony.

  3. Wpis świetny ale… site:www.domena.pl „słowo kluczowe” – to jest jeden z tych sposobów, który może wprowadzić w błąd osobę analizującą stan witryny. W ten sposób nie sprawdzisz faktycznego stanu zafiltrowania witryny. Trzeba mieć to na uwadze, że są różne typy filtrów algorytmicznych i w zależności od typu dane uzyskane z site + słowo mogą być nieadekwatne do standardowego checkingu. Podobnie jest z drugim wyszukiwaniem bez site, który także może wprowadzić w błąd sprawdzającego. Nie piszę tego po to by krytykować, tylko po to by zwrócić uwagę że ten sposób nadaje się jedynie do wstępnych oględzin, do zaawansowanych analiz przeprowadza się klasyczne sprawdzanie na podstawie zebranych danych. Będzie czas to opiszę to na blogu.

    Ps. Wpis zaraz udostępnię u siebie na fejsie bo mimo tych 2 rzeczy, wszystko jest super opisane!

    1. Zgadza się 😉 Może to przeoczyłeś ale podkreśliłem fakt, że nie jest to w pełni miarodajny sposób i opisałem ew. wyobrażenie i problemy z wynikami. Ale jeżeli masz coś więcej na temat filtrów algorytmicznych, czego tutaj nie było to chętnie przeczytam 😉

  4. Jak oceniasz szanse na odpuszczenie filtra nałożonego przez pingwina 2.1 w przypadku gdy żadnych zmian na stronie nie wprowadzono? Byli tacy co prognozowali, że filtr odpuści po roku (stąd pytanie).

    1. Nie znam przypadku, który po głębszym sprawdzeniu okazałby się powrotem na pozycje. Zazwyczaj występuje tutaj blokada nie do przekroczenia jeżeli chodzi o ukarane frazy i często nawet ich pochodne czy też te nowo powstałe. Seowcy potwierdzają, Googlowcy potwierdzają.. „pełne recovery bez update nie jest na tą chwilę możliwe”. Aczkolwiek nie zdziwię się jeżeli zamiast kolejnego Pingwina, Google zaoferuje stronom odpuszczenie grzechów po jakimś czasie także może coś w tym być nigdy nic nie wiadomo. Na pewno mają parcie z naszej strony, a prace nad update trwają. Tak czy inaczej, jeżeli powód kary nie zostanie usunięty, to żaden czas nie pomoże.

  5. Trochę mi to rozjasniło kilka spraw, ale dużo z tych rzeczy to i tak w dalszym ciągu dla mnie czarna magia 😉 Mam nadzieje, że dzięki takim wpisom, będzie z moją wiedzą coraz lepiej 🙂

  6. Najlepszy chyba w sieci poradnik dot. nagłych spadków strony w wyszukiwaniu w Google. Prosto przejrzyście i zrozumiale nawet dla laika. Świetna robota.

  7. Bardzo dobrze usystematyzowane – gratulacje za kawał roboty, dodaję do zakładek.
    Schody zaczynają się jednak tam, gdzie kończy się wpis – ze świecą szukać serwisów, które jako tako wracają do życia po Pingwinie czy ręcznych manipulacjach moderatora Google. Niby w sieci można znaleźć trochę przykładów pięknych powrotów do chwały, ale to są pojedyncze przypadki na tle setek spalonych na lata domen. Warto o tym pamiętać, aby uniknąć rozczarowania, kiedy po zdjęciu filtra… nic się nie dzieje.

    1. Zgadza się. Dla tego napisałem, że diagnoza to tylko pierwszy krok i od razu pokazuję realia ewentualnych powrotów. Jeżeli strony nie dotknął Penguin to w zasadzie nie jest tak źle, tracimy wyłącznie czas kiedy strona jest odzyskiwana ale powrót jest jak najbardziej realny.

  8. Świetny wpis, usystematyzował moją wiedzę. Fajnie zebrane informacje o temacie, który ciągle jest na czasie:) Gratuluję, pozdrawiam

  9. Aż zazdroszczę wytrwałości i te obrazki, jestem pełen podziwu. Kolejne teksty przeczytam z zainteresowaniem ten mnie nie nauczył, jednak w tym tempie następne będą odkrywcze.

  10. Bardzo pożyteczny wpis. Wszystko ładnie streszczone i super wytłumaczone. Dużo pracy włożyłeś w ten artykuł i za to pełny szacunek. Czekam na dalsze ciekawe wpisy o tej tematyce.

  11. Uznanie artykuł, a w szczególności informację odnośnie adresów z „http” i „https” (na SEO Poland nie udało mi się nic na ten temat dowiedzieć) i zebranie komunikatów w przypadku działań niezgodnych z algorytmem.

  12. Doskonały wybór tematu i wartościowa treść dla użytkowników. Jest to zdecydowanie kompendium wiedzy w pigułce. Czekamy na kolejne ciekawe wpisy.

  13. Bardzo dobry wpis, jak dla mnie brakuje tylko sposób na wyjście z filtru algorytmicznego i opisania, estymacji czasu jaki na to potrzeba – to jest jedna z najtrudniejszych dziedzin SEO 🙂

  14. U mnie to samo, strona raz podnosi swoje pozycje w google, a raz obniża, w tej chwili mam spadek o 3 frazy w dół, dzięki za ten artykuł ponieważ teraz wiem w którym kierunku iść aby tego unikać 🙂

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *