Forum Google dla webmasterów pełne jest tematów zaczynających się od słów „nagły spadek pozycji strony w Google„, „strona spadła w Google” oraz „moja strona zniknęła z Google„. Milion pytań w których przeważnie chodzi o to samo oraz tyle samo odpowiedzi pomimo faktu, że te ostateczne w większości również są takie same. Zbierając do jednego worka wszelkie rozwiązania związane z powyższymi pytaniami opisałem pierwsze kroki na drodze do tego co należy zrobić alby strona wróciła na swoje dawne pozycje lub choć trochę podniosła się po upadku jeżeli istnieje szansa jeszcze to zrobić.
Szukamy przyczyny spadków
Niewątpliwie najważniejszą czynnością w drodze do odzyskania dobrej widoczności czy też wysokich pozycji na konkretne słowa kluczowe w wynikach wyszukiwania jest zdiagnozowanie problemu. Dla czego jest to takie ważne? ponieważ wdrażając po omacku zmiany, które znajdziemy w odpowiedzi dla innych użytkowników, możemy sobie narobić znacznie większych szkód. Należy też pamiętać o tym, że każda strona jest inna, każda wymaga innego podejścia i problemy choć z pozoru mogą być identyczne, wcale takie być nie muszą.
Powiadomienie w narzędziach Google dla Webmasterów
W pierwszej kolejności logujemy się do narzędzi Google dla Webmasterów i jeżeli nie podłączyliśmy tam jeszcze naszej strony, należy to zrobić. Wszelkie obawy odnośnie mitów, które mówią o tym, że podłączając GWT i Analytics dajemy Google swoją witrynę na tacy możemy pominąć, ponieważ nie zobaczymy tam niczego o czym oni już by nie wiedzieli. Pomijając Analytics oczywiście, bo o tym co robią użytkownicy na naszej stronie raczej nie wiedzą choć nie jest żadną tajemnicą to, że przeglądarka Chrome dostarcza im takich informacji. W każdym razie, dodajemy swoją witrynę dwa razy, z www i bez www. Jeżeli korzystamy z protokołu https można dodać również kolejne dwa adresy tak samo jak poprzednio ale tym razem poprzedzając je w adresie fragmentem „https://”.
Następnie musimy ją zweryfikować za pomocą jednej z sugerowanych metod. Kiedy strona została już dodana, musimy odwiedzić zakładkę w której w razie konieczności, Google informuje nas o nałożonej karze ręcznej. Przechodzimy do niej za pomocą lewego menu, klikając na opcje „Ruch związany z wyszukiwaniem„, a następnie „Ręczne działania„.
I w tym momencie możemy napotkać kilka scenariuszy oraz dwa stopnie dopasowania, dopasowanie ścisłe, które zostało zastosowane w obrębie całej domeny i czasem również w stosunku do subdomen oraz dopasowanie częściowe, które może dotyczyć konkretnej części witryny lub subdomeny/subdomen. Dodatkowo warto zaznaczyć, że nawet po zdjęciu kary i zniknięciu komunikatu, może zawsze pojawić się następny ponieważ algorytm znalazł kolejny problem z witryną.
Działania ręczne Google
Poniżej znajduje się lista wszystkich możliwych komunikatów, które mogą się pojawić w zakładce „Ręczne działania”, streszczenie powodu nałożenia kary oraz nieco szersza odpowiedź Matta Cuttsa na ich temat:
(filmy posiadają Polskie napisy)
W witrynie nie znaleziono działań przeciwspamowych – Czyli nie została nałożona przez Google kara ręczna, aczkolwiek nie jest to wcale równoznaczne z faktem iż strona ma się dobrze.
Nienaturalne linki do Twojej witryny – dotyczy linków – Algorytm Google znalazł wzorzec nienaturalnych linków prowadzących do witryny jednak podjął działania tylko wobec nich, a nie całej witryny. Prawdopodobnie część profilu linków kierujących do danej strony została uznana za nienaturalne z powodu źródła ich pochodzenia, które mogło zostać ukarane lub uznane za niskiej jakości. SWL, precle, zaspamowane fora itp.
Nienaturalne linki do Twojej witryny – Algorytm Google znalazł nienaturalne linki do strony oraz podjął działania mające na celu obniżenie jej pozycji w wynikach wyszukiwania. Tutaj sytuacja jest podobna do poprzedniej ale na znacznie większą skalę. Znaleziono wzorzec nienaturalnych linków, który przeważa nad linkami wydającymi się z pozoru na naturalne.
Nienaturalne linki z Twojej witryny – Google znalazło wzorzec nienaturalnych linków wychodzących z naszej strony, które przekazują PageRank. Najprościej mówiąc wszelkie wymiany bannerów, nietematyczne linki, udział w systemach wymiany linków i linki sitewide (identyczne w obrębie całej domeny). Podstawowym szablonem jest tutaj fakt o linkach wychodzących z każdej możliwej podstrony serwisu.
Witryna zaatakowana przez hakerów – Strona padła ofiarą ataku i jest używana do manipulowania przepływem PageRank innych stron internetowych. Taka sytuacja ma miejsce w momencie kiedy skrypt nie jest dobrze zabezpieczony oraz aktualizowany na bieżąco. Dzięki dziurom, które zostały w nim znalezione, spamerzy umieszczając swoje linki na naszej stronie czasem nawet w taki sposób, że są one dla nas całkowicie niewidoczne. (cloacking)
Mało treści o niewielkiej lub żadnej wartości – Google ocenia stronę jako niskiej jakości, ubogą w wysokiej jakości przydatną treść. Najczęstszym powodem jest duża ilość podstron z niewielką ilością zawartości typową dla katalogów stron i najgorszych precli. Możemy ustalić, że tekst na stronie o średnim site po odliczeniu zduplikowanych elementów, mieści się w granicach ok 500 znaków lub też mniej na każdej z podstron.
Czysty spam – W większości przypadków zawartość strony jest w znacznym stopniu zduplikowana z innymi, które już znajdują się w indeksie. Taka sytuacja ma najczęściej miejsce w momencie kiedy bazujemy na czyiś treściach. Wszelkiego rodzaju precle i katalogi seo o nikłej wartości, gdzie użytkownicy masowo dodają identzcznie takie same wpisy jak w innych oraz strony pobierające lub generujące automatycznie swoją zawartość na podstawie danych pobranych z innych stron bez najmniejszego ładu i sensu.
Spam tworzony przez użytkowników – Przeważnie chodzi tutaj o niskiej jakości komentarze oraz linki z nich wychodzące na stronie. Problem bardzo często dotyka właścicieli for internetowych oraz blogów z wyłączoną moderacją nowych treści, gdzie narzędzia spamerów masowo publikują bezsensowne treści z linkami lub też czasem nawet robią to ręcznie.
Maskowanie i/lub podstępne przekierowania – Wykryto próby oszukiwania algorytmu po przez dostarczanie innej treści użytkownikom, a innej robotom Google. Cloacking, czyli próba ukrycia spamu przed użytkownikami tak aby Googlebot jednocześnie ją widział i naliczał punkty za przykładowo nasycenie słowami kluczowymi, linki oraz dziwne przekierowania mające na celu przeniesienie PageRanku z innych podstron na tą na której wysokiej pozycji nam zależy.
Ukryty tekst lub upychanie słów kluczowych – Znaleziono próbę sztucznego przesycenia zawartości strony po przez upychanie słów kluczowych. Wszelkie elementy ukryte po za ekranem monitora za pomocą CSS, niewidoczne dla użytkownika lub też usilne powtarzanie słów kluczowych w treści, a także i stopki przepełnione frazami bez najmniejszego sensu ich istnienia.
Spamerskie darmowe hosty – Spam znaleziony na subdomenach nad którymi mają kontrolę użytkownicy. Typowy problem dla właścicieli serwisów oferujących darmowe platformy blogowe, które są wykorzystywane przez spamerów do tworzenia zaplecz oraz innych miejsc pod linki.
Spamerska struktura znaczników – Ten komunikat pojawia się w momencie kiedy zawartość strony przekłamuje roboty w temacie opisów rozszerzonych. (schema.org) Sytuacja ma miejsce w momencie gdy na siłę dostarczamy wyszukiwarce informacje o znacznikach nawet jeżeli nie mają one najmniejszego sensu czy też prawa bytu, a także są zupełnie niewidoczne dla użytkowników lub też nie spełniają wymogów odnośnie konieczności ich umieszczania.
Strona zniknęła z indeksu Google
Zależnie od kary nałożonej przez Google, strona może nadal istnieć w indeksie ale może też się okazać, że została z niego usunięta. Istnieje bardzo prosty sposób na to aby sprawdzić czy nasza strona nadal się w nim znajduje, a służy do tego polecenie „site:www.domena.pl” po którego wpisaniu w pole wyszukiwania, powinny pojawić się podstrony naszej witryny.
Oczywiście możemy tutaj również zastosować kilka innych składni aby dowiedzieć się co Google posiada w swoim indeksie. Jeżeli po sprawdzeniu naszej witryny za pomocą komendy site, nie zostaną nam zwrócone żadne wyniki z nią związane, może to oznaczać tylko dwie rzeczy. Albo strona jest nowa i Google nie posiada o niej jeszcze żadnych informacji, albo została usunięta z indeksu i w konsekwencji, wyników wyszukiwania. Dokładny powód takiej sytuacji możemy znaleźć w narzędziach Google dla Webmasterów w zakładce „Ręczne działania” .
Poniżej znajduje się kilka przydatnych sposobów wykorzystania komendy „site”:
site:domena.pl – zawartość indeksu dla domeny „domena.pl” oraz jej wszystkich subdomen
site:www.domena.pl – wyświetlamy zawartość indeksu dla domeny www.domena.pl
site:www.domena.pl „słowo kluczowe” – przydatne podczas sprawdzania filtrów algorytmicznych
site:www.domena.pl/nazwa-podstrony – sprawdzamy czy podstrona „nazwa-podstrony” znajduje się w indeksie
Filtr algorytmiczny
Czasami algorytm z jakiegoś powodu cofa dane podstrony lub też całą stronę na konkretne słowa kluczowe bez powiadomienia nas o tym fakcie. Przyczyn może być wiele, przesycenie słów kluczowych, uznanie treści za mało wartościową, zduplikowana treść lub też balans na granicy tuż przed otrzymaniem powiadomienia. (Chociaż w bardzo wielu przypadkach okazuje się, że strona nie została dotknięta filtrem algorytmicznym lecz zupełnie innym, na przykład algorytmem Panda)
Istnieje sposób aby móc sprawdzić czy strona posiada filtr algorytmiczny, jednak nie zawsze może się nam to udać. Służą temu poniższe zapytania, które wpisujemy w pasek wyszukiwania Google:
site:www.domena.pl „słowo kluczowe” – sprawdzamy, czy Google widzi szanse na umieszczenie naszej domeny lub jednej z podstron na konkretne słowo kluczowe.
www.domena.pl „słowo kluczowe” – tym razem już bez „site:”, sprawdzamy czy wyszukiwarka zwróci chociażby jeden wynik dotyczący naszej witryny.
Obie komendy najlepiej jest wpisać w trybie incognito przeglądarki, aby nie otrzymać informacji czy też wyników spersonalizowanych. Jeżeli pierwsze zapytanie zwróciło nam jakiś wynik i nasza strona ma szanse na udział w rankingu na to słowo, to drugie zapytanie również powinno zwrócić nam wynik. Z racji tego, że w pierwszej kolejności podaliśmy także nazwę domeny, powinna ona się pojawić na pierwszym miejscu. Jeżeli natomiast algorytm z jakiś powodów cofa stronę w wynikach, pojawi się ona na bardziej odległych miejscach lub też może się nie pojawić nawet wcale.
Nie jest to jednak rozwiązanie doskonałe. Możemy to wytłumaczyć domyślnym założeniem, że Google nadaje punkty stronie zależnie od zapytania. Nasza posiada ich standardowo powiedzmy 100, w momencie kiedy algorytm nakłada filtr na stronę, odbiera jej 50 z tych punktów więc ma teraz mniej niż inne strony przez co pojawi się niżej niż one nawet kiedy wpiszemy nazwę domeny w zapytaniu. Niestety nie wiadomo na pewno jak to do końca działa, więc można również założyć, że filtr algorytmiczny czasami zabiera mniej punktów lub też strony znajdujące się poniżej posiadają ich mniej. W takim wypadku nasza może nadal pojawiać się na pierwszym miejscu mając nałożony jednocześnie filtr algorytmiczny.
Więcej informacji odnośnie sposobów na pozbycie się lub ominięcie tego rodzaju kary znajduje się w artykule, który nieco bardziej wyczerpująco opisuje w jaki sposób można ściągnąć filtr algorytmiczny lub też zwyczajnie go ominąć.
Problemy z linkami
Kiedy pozycje strony spadają, powiadomienia w narzędziach Google dla webmasterów nie ma i wszystko wydaje się być w porządku, może okazać się iż powodem spadku jest utrata części linków. To naturalne, że każda strona z czasem takie posiada nie jednak w momencie kiedy utracimy te, które algorytm uznał za kluczowe dla wysokich pozycji witryny, może ona stracić na widoczności. W jaki sposób można sprawdzić ilość utraconych linków oraz ich stosunek względem nowych? Istnieje wiele narzędzi, które mogą dostarczyć nam takich informacji. Poniższy przykład pochodzi z narzędzia do analizy linków przychodzących Ahrefs.
Szczerze mówiąc, akurat ta strona pomimo utraty linków ma dosyć spore wzrosty pozycji bowiem wśród tych utraconych/usuniętych znajdują się nienaturalne linki, które wpływały na obniżenie jej pozycji. Analogicznie, gdyby to były jednak naturalne linki dobrej jakości, strona spadłaby na swoje słowa kluczowe.
Depozycjonowanie
W ostatnich latach rozrosła się również jedna z najczarniejszych nisz jaką jest depozycjonowanie. Cała sztuka polega na tym aby za pomocą dużej ilości nienaturalnych linków, zaszkodzić stronie konkurencji. Jeżeli nasza strona padła ofiarą takiego działania, możemy to również zaobserwować zarówno w Ahrefsie jak i narzędziach Google dla webmasterów, a zazwyczaj objawia się to dużą ilością nowych linków przychodzących lub też przekierowaniem ukaranych domen na adres naszej. W tym przypadku lepiej spisuje się GWT ponieważ pokazuje linki przechodzące przez przekierowanie oraz wszelkie inne niewidoczne dla innych robotów niż Googlebot, np. robot Ahrefs. (blokowanie robotów innych niż należące do Google jest powszechnie stosowaną praktyką, której celem jest ukrycie informacji dotyczących linków zwrotnych chociażby przed konkurencją)
Jak sprawdzić czy padliśmy ofiarą depozycjonowania?
Wchodzimy do narzędzi, klikamy w miejsca wskazane przez strzałki w kolejności od góry do dołu i analizujemy słowa, które znajdują się na pełnej liście zakładki „Jak wyglądają linki do Twoich danych”.
To czego szukamy to słowa typowe dla stron pornograficznych, dotyczące hazardu, viagry itp. Wszystko co nie jest zgodne z zawartością witryny oraz może zostać uznane jako spam.
Nie zawsze jednak depozycjonowanie opiera się na przekierowaniach lub też linkach przychodzących na zaspamowane frazy. Czasami wykorzystywane są do tego słabe miejsca, ze złą historią, ukarane itp. ale frazy jak najbardziej zgadzają się z tymi na których nam zależy. W takiej sytuacji możemy sprawdzić jak wygląda przyrost linków prowadzących do naszej strony. Pomaga w tym wiele narzędzi ale można to również zrobić przy pomocy samego Excela.
W tym celu wykonujemy wszystkie kroki tak jak na obrazach w kolejności strzałek, od góry do dołu:
A następnie pobieramy listę najnowszych linków (najlepiej jest zapisać je do csv):
Otwieramy plik w programie Excel, zaznaczamy pierwszą kolumnę (całą), wybieramy opcję „dane”, następnie „tekst jako kolumny”, klikamy „dalej”, zaznaczamy w lewym górnym rogu opcję „Przecinek”, „dalej” i „zakończ”:
Teraz zaznaczamy dwie pierwsze kolumny, również w całości, wybieramy z górnego menu opcję „wstawianie” i po lewej stronie „tabela przestawna”, a następnie „ok”. Po prawej stronie pojawia się pasek w którym przeciągamy „pierwsze wykrycie” jako „wiersze” oraz „linki” jako „wartości”.
Ponownie zaznaczamy dwie pierwsze kolumny, wybieramy z menu opcję „wstawianie” oraz wybieramy dowolny z wykresów. Efekt wygląda następująco:
Jeżeli w jakimś okresie liczba linków drastycznie wzrosła, zapamiętujemy datę, wracamy do arkusza z listą źródeł z których pochodzą i sprawdzamy je na wyrywki czy znajdują się w rozsądnych miejscach oraz mają jakikolwiek sens. W ten sposób możemy poznać przybliżoną datę ataku oraz w szybkim tempie stworzyć listę domen wykorzystanych do depozycjonowania w celu zrzeknięcia się tych linków za pomocą narzędzia disavow tool.
Aktualizacje algorytmu Google
W trosce o najwyższą jakość wyników wyszukiwania, Google stara się aby były one jak najlepiej dopasowane do wpisywanych przez użytkowników fraz kluczowych oraz aby były wolne od wszelkiego spamu i stron, które za pomocą technik niezgodnych z wytycznymi Google, pozycjonerzy starają się umieścić na szczycie rankingu.
Aby jednak to się udało, pomaga im wiele algorytmów, które oceniają wartość strony na podstawie różnych czynników i są one nieustannie ulepszane.
Najbardziej znane oraz mające największy wpływ na pozycje naszej witryny w dłuższym okresie czasu algorytmy to Panda i Penguin.
Algorytm Penguin
Algorytm penguin jest odpowiedzialny za wykrywanie nienaturalnych linków przychodzących do strony, a jego działania są cykliczne. Aby zdiagnozować czy spadek pozycji i widoczności strony w wynikach wyszukiwania został spowodowany przez karę nałożoną przez algorytm Penguin, należy sprawdzić czy owe spadki nie nastąpiły w okolicach dni kiedy aktualizacja tego algorytmu miała miejsce.
Do tej pory doczekaliśmy się czterech aktualizacji tego algorytmu.
Daty aktualizacji algorytmu Penguin:
Penguin 1.1 – 25 maj 2012
Penguin 1.2 – 05 październik 2012
Penguin 2.0 – 22 maj 2013
Penguin 2.1 – 04 październik 2013
I właściwie na dniach możemy się spodziewać kolejnej odsłony zatytułowanej Google Penguin 3.0 ponieważ zgodnie z przewidywaniami powinna się ona pojawić już dawno temu.
Jeżeli strona została ukarana przez algorytm Penguin, największym problemem jest to, że nawet po zdiagnozowaniu przyczyn oraz ich usunięciu, szanse na większy powrót zarówno pozycji jak i widoczności mamy dopiero w momencie kolejnej aktualizacji lub przy pomocy metody przekierowania wykonanego w odpowiedni sposób. W przypadku stron ukaranych przez Penguin 2.1 nadal nie odnotowano rzetelnego przypadku domeny, której udało się wrócić wyżej niż 2/3 widoczności jaką miała przed nałożeniem kary. Dodatkowo warto wspomnieć, że w wielu powyższych przypadkach, webmasterzy nie otrzymali powiadomienia o nałożeniu kary w narzędziach Google dla webmasterów.
Algorytm Panda
Algorytm Panda jest odpowiedzialny za ocenianie strony na podstawie jej zawartości. Przyjęło się, że jednym z najważniejszych z nich jest ilość wyświetlanych reklam. Jednak jest ich znacznie więcej.
Tak pokrótce, Panda zawiera w sobie cały algorytm Page Layout, sprawdza strony pod kątem zduplikowanych treści, przydatności i wrażeń użytkowników oraz również jest algorytmem wypuszczanym cyklicznie. Jednak w tym przypadku ma to miejsce znacznie częściej, bo średnio raz w miesiącu. Do tej pory miało miejsce 29 aktualizacji tego algorytmu z czego pierwsze sześć nie dotknęło wielu krajów nieanglojęzycznych, w tym oczywiście zapytań w języku Polskim.
Daty aktualizacji algorytmu Panda:
Panda 1.0 – 24 luty 2011
Panda 2.0 – 11 kwiecień 2011
Panda 2.1 – 09 maj 2011
Panda 2.2 – 18 czerwiec 2011
Panda 2.3 – 22 lipiec 2011
Panda 2.4 – sierpień 2011
Panda 2.5 – 28 wrzesień 2011
Panda 2.5.1 – 09 październik 2011
Panda 2.5.2 – 13 październik 2011
Panda 2.5.3 – 19-20 październik 2011
Panda 3.1 – 18 listopad 2011
Panda 3.2 – około 15 styczeń 2012
Panda 3.3 – o 26 luty 2012
Panda 3.4 – 23 marzec 2012
Panda 3.5 – 19 kwiecień 2012
Panda 3.6 – 27 kwiecień 2012
Panda 3.7 – 08 czerwiec 2012
Panda 3.8 – 25 czerwiec 2012
Panda 3.9 – 24 lipiec 2012
Panda 3.9.1 – 20 sierpień 2012
Panda 3.9.2 – 18 wrzesień 2012
Panda 20 – 27 wrzesień 2012
Panda 21 – 05 listopad 2012
Panda 22 – 04 grudzień 2012
Panda 23 – 21 grudzień 2012
Panda 24 – 22 styczeń 2013
Panda 25 – 25 marzec 2013
Panda 26, 18 lipiec 2013
Panda 4.0 – 20 maj 2014
Szanse na powrót pozycji
Odpowiedź na to pytanie zależy od wyniku jaki zwróci nam zdiagnozowanie problemu z witryną i nie będzie ani jednoznaczna ani też konkretna. Kary ręczne w zależności od przewinienia mogą zostać wycofane w zakresie od 3ch dni do kilku miesięcy od momentu usunięcia ich przyczyny, wysłania prośby o ponowne rozpatrzenie. Dla czego tak długo? ponieważ po takim czasie zazwyczaj przychodzą odpowiedzi od pracowników Google. W ostatnich latach czas ten i tak bardzo się skrócił i chyba nie zdarzyło się jeszcze aby ktoś czekał na odpowiedź dłużej niż jeden miesiąc. Oczywiście czasami może się tak zdarzyć, że nie dostaniemy odpowiedzi wcale ale równoznaczne z pozytywnym rozpatrzeniem prośby o ponowne rozpatrzenie oraz wycofanie działań ręcznych w stosunku do witryny jest zniknięcie komunikatu o nałożeniu kary ręcznej z narzędzi Google dla webmasterów.
Podobny czas oczekiwania na to aż pozycje wrócą mniej więcej na swoje miejsce jest w momencie kiedy usuniemy przyczyny nałożenia na stronę filtru algorytmicznego. Tutaj jednak cała diagnostyka jest dosyć ciężka i należy sprawdzić kondycję całej witryny aby nie odłączyć zbyt wiele, ponieważ możemy odłączyć sobie również szanse powrotu na dawne miejsca.
Przy Pandzie tak jak wspomniano już wcześniej, jest to okres około miesiąca czasu od momentu naprawy problemu, przy Penguinie jest to czas aż do kolejnej aktualizacji.
Do tego czasu należy również dodać fakt iż Google nie przeindeksuje zawartości całej naszej strony ani stron, które miały lub też nadal posiadają linki do naszej witryny w ciągu kilku dni. Stąd też biorą się też czasem absurdalne odpowiedzi od Google, że na jakiejś stronie znajduje się link do nas pomimo tego, że już go tam nie ma.
Świetne kompendium. Blog zaczyna się wyróżniać wśród tłumu z planety seo:)
Ciekawy wpis 🙂
Zamiast tego pingwina podaj pingwina z madagaskaru, najlepiej szeregowego 🙂
Jeszcze powinien być punkt: Klient 🙂
A ogólnie to dobra robota.
Zajefajny wpis – gratulacje 🙂 Linki nofollow do tak zaufanego źródła jakim jest Google 😉 można dac dofollow – nie zaszkodzą 🙂
Przekazuję PR tylko domenom do których mam zaufanie 😉
Spoko podsumowanie, w sumie można by z tego stworzyć 3 arty z tego jednego.
Walidacja na komentarzach „Stolica Polski to ?” nie powinna obniżać UX, ale kto tak tych pozycjonerów wie 😉
Takie czasy 😉 Roboty lubią komentować, a ja nie lubię ich moderować 😉
Bardzo dobry wpis, dużo danych pomocnych dla tych, którym GWT nie jest jeszcze dobrze znane 🙂
Fajny tekst ale tu jest chyba tylko jedno małe „ale”…
Jeśli strona jest ustawiona na „bez www” to komenda site:www.domena.pl „słowo kluczowe” może nie działać prawidłowo, wtedy należy wklepać:
site:domena.pl „słowo kluczowe”
Zgadza się, pominąłem opis tego problemu żeby nie mieszać jeszcze bardziej (większość stron i tak zaczyna się od www). Jeżeli preferowana wersja domeny jednak nie zaczyna się od www, musimy skorzystać z site:domena.pl tak jak napisałeś ale w przypadku istnienia subdomen, ich indeks również zostanie wyświetlony.
Bardzo dobrze przygotowany wpis/poradnik. Gratuluje, dobra treść i media.
Świetnie usystematyzowane informacje w jednym miejscu. Widać sporo pracy w przygotowaniu tego wpisu.
Bardzo ciekawy i wyczerpujący wpis. A tak z ciekawości czemu umieszczasz obrazki(screenshot) z linkiem do filmiku a nie sam filmik bezpośrednio prze embed? Estetyka?
Ze względu na krótszy czas ładowania strony. (chociaż wolałbym mieć te filmy u siebie)
Wpis świetny ale… site:www.domena.pl „słowo kluczowe” – to jest jeden z tych sposobów, który może wprowadzić w błąd osobę analizującą stan witryny. W ten sposób nie sprawdzisz faktycznego stanu zafiltrowania witryny. Trzeba mieć to na uwadze, że są różne typy filtrów algorytmicznych i w zależności od typu dane uzyskane z site + słowo mogą być nieadekwatne do standardowego checkingu. Podobnie jest z drugim wyszukiwaniem bez site, który także może wprowadzić w błąd sprawdzającego. Nie piszę tego po to by krytykować, tylko po to by zwrócić uwagę że ten sposób nadaje się jedynie do wstępnych oględzin, do zaawansowanych analiz przeprowadza się klasyczne sprawdzanie na podstawie zebranych danych. Będzie czas to opiszę to na blogu.
Ps. Wpis zaraz udostępnię u siebie na fejsie bo mimo tych 2 rzeczy, wszystko jest super opisane!
Zgadza się 😉 Może to przeoczyłeś ale podkreśliłem fakt, że nie jest to w pełni miarodajny sposób i opisałem ew. wyobrażenie i problemy z wynikami. Ale jeżeli masz coś więcej na temat filtrów algorytmicznych, czego tutaj nie było to chętnie przeczytam 😉
Jak oceniasz szanse na odpuszczenie filtra nałożonego przez pingwina 2.1 w przypadku gdy żadnych zmian na stronie nie wprowadzono? Byli tacy co prognozowali, że filtr odpuści po roku (stąd pytanie).
Nie znam przypadku, który po głębszym sprawdzeniu okazałby się powrotem na pozycje. Zazwyczaj występuje tutaj blokada nie do przekroczenia jeżeli chodzi o ukarane frazy i często nawet ich pochodne czy też te nowo powstałe. Seowcy potwierdzają, Googlowcy potwierdzają.. „pełne recovery bez update nie jest na tą chwilę możliwe”. Aczkolwiek nie zdziwię się jeżeli zamiast kolejnego Pingwina, Google zaoferuje stronom odpuszczenie grzechów po jakimś czasie także może coś w tym być nigdy nic nie wiadomo. Na pewno mają parcie z naszej strony, a prace nad update trwają. Tak czy inaczej, jeżeli powód kary nie zostanie usunięty, to żaden czas nie pomoże.
Mam domenę katalog-firmy.net bez www, w GWT wpisane obydwie wersje.. teraz dowiedziałem się, że należy tez wpisać https.. dzięki 🙂
Trochę mi to rozjasniło kilka spraw, ale dużo z tych rzeczy to i tak w dalszym ciągu dla mnie czarna magia 😉 Mam nadzieje, że dzięki takim wpisom, będzie z moją wiedzą coraz lepiej 🙂
Rewelacyjny wpis. Będę go polecał klientom, którzy przychodzą z filtrem i nie wiedzą co zrobić.
Gdyby jeszcze zrobić z tego infografike 😉
Najlepszy chyba w sieci poradnik dot. nagłych spadków strony w wyszukiwaniu w Google. Prosto przejrzyście i zrozumiale nawet dla laika. Świetna robota.
Podstawowe informacje, bardzo szczegółowo opisane 🙂 nic super odkrywczego ale ogólnie miło się czytało
Bardzo dobrze usystematyzowane – gratulacje za kawał roboty, dodaję do zakładek.
Schody zaczynają się jednak tam, gdzie kończy się wpis – ze świecą szukać serwisów, które jako tako wracają do życia po Pingwinie czy ręcznych manipulacjach moderatora Google. Niby w sieci można znaleźć trochę przykładów pięknych powrotów do chwały, ale to są pojedyncze przypadki na tle setek spalonych na lata domen. Warto o tym pamiętać, aby uniknąć rozczarowania, kiedy po zdjęciu filtra… nic się nie dzieje.
Zgadza się. Dla tego napisałem, że diagnoza to tylko pierwszy krok i od razu pokazuję realia ewentualnych powrotów. Jeżeli strony nie dotknął Penguin to w zasadzie nie jest tak źle, tracimy wyłącznie czas kiedy strona jest odzyskiwana ale powrót jest jak najbardziej realny.
Świetny wpis, usystematyzował moją wiedzę. Fajnie zebrane informacje o temacie, który ciągle jest na czasie:) Gratuluję, pozdrawiam
Bardzo wyczerpujący artykuł. Dokładnie krok po kroku opisane jak sprawdzać źródło spadków strony. Dzięki. Będę polecać 🙂
Świetne podsumowanie ! Polecam dalej!
Aż zazdroszczę wytrwałości i te obrazki, jestem pełen podziwu. Kolejne teksty przeczytam z zainteresowaniem ten mnie nie nauczył, jednak w tym tempie następne będą odkrywcze.
Bardzo pożyteczny wpis. Wszystko ładnie streszczone i super wytłumaczone. Dużo pracy włożyłeś w ten artykuł i za to pełny szacunek. Czekam na dalsze ciekawe wpisy o tej tematyce.
Uznanie artykuł, a w szczególności informację odnośnie adresów z „http” i „https” (na SEO Poland nie udało mi się nic na ten temat dowiedzieć) i zebranie komunikatów w przypadku działań niezgodnych z algorytmem.
Doskonały wybór tematu i wartościowa treść dla użytkowników. Jest to zdecydowanie kompendium wiedzy w pigułce. Czekamy na kolejne ciekawe wpisy.
Bardzo dobry wpis. Wszystko zebrane w 1 miejscu i rzeczowo opisane.
Pozdrawiam!
Bardzo dobry i rzetelnie przygotowany artykuł. Można przeczytać naprawdę dużo o typach kar od Google i powodach ich nałożenia.
Bardzo dobry wpis, jak dla mnie brakuje tylko sposób na wyjście z filtru algorytmicznego i opisania, estymacji czasu jaki na to potrzeba – to jest jedna z najtrudniejszych dziedzin SEO 🙂
Metod są setki, a zastosowanie odpowiedniej wymaga lepszej diagnozy. Możliwe, że opiszę kilka z nich w najbliższym czasie, bo temat jest jak najbardziej aktualny. Dzięki za zmotywowanie 😉
Fajny artykuł!! Dobrze to zebrałes do kupy Kolec!
Super artykuł, jeden z lepszych jakie ostatnio czytałem 🙂
Świetny artykuł, bardzo przystępnie napisany. Cieszę się, że tutaj trafiłam.
Ja też do Google nie mam zaufania. Raz top 10 raz poza 30…;P
U mnie to samo, strona raz podnosi swoje pozycje w google, a raz obniża, w tej chwili mam spadek o 3 frazy w dół, dzięki za ten artykuł ponieważ teraz wiem w którym kierunku iść aby tego unikać 🙂
Bardzo dobry artykuł, dziękuję.
z tego co widzę po mojej stronie i z tego co czytam w komentarzach innych to strony lubią sobie wędrować w wynikach wyszukiwarki,pamiętajmy jednak ze nie my jedyni mamy strone dla danej frazy a konkurencja też nie śpi 🙂
Warto dodać, że również konkurencja mogła zacząć być bardziej aktywna, przez co pozycje w Google spadły.
Bardzo pomocny artykuł. Właśnie szukałem jakiś info dotyczących tego dlaczego jedno z moich słów kluczowych ciągle wariuje w pozycjach. Raz jest dość wysoko, a na następny dzień spada poniżej 50. Muszę zrobić dokładną analizę, a wskazówki zawarte w artykule mam nadzieje, że mi pomogą.
Doskonała publikacja i pomyśleć, że autor napisał tekst w 2014 roku, który dalej jest aktualny. Ja aktualnie spaliłem sobie domenę z pazerności na pieniądze z Adsense. Zrobiłem potężny błąd z którego nie wyliże się już chyba nigdy. 2 lata temu Google obniżyło trochę zarobki z reklam, zacząłem szperać w sieci i wyczytałem że strona lepiej zarabia jak ma konkretną tematykę. Na swojej stronie miałem różne wpisy takie miks, trochę tego i owego, ale to nie przeszkadzało w niczym, bo miała bardzo dobra pozycję na większości fraz.
Pomyślałem że zrobię tak: rozdzielę wpisy, techniczne zostawiłem na stronie X, a o duperelach wrzucę na stronę Y, oczywiście z przekierowaniami 301. Spadki odwiedzin pojawiły się natychmiast, ale jak zliczałem ogólną sumę uu to wszystko się zgadzało. Po jakimś czasie zmieniłem CMS z WP na Drupal i tutaj okazało się, że nagle strona X całkowicie zaczęła spadać na najbardziej łowne słowa kluczowe, po ok roku domena Y też dostała w plecy. I takim oto sposobem zniszczyłem 10 lat dorobku.
Szkoda mi tylko tekstów, bo sporo czasu mnie kosztowało napisanie ich. Teraz nie wiem co zrobić? może usunę obydwie domeny z indeksu, odczekam z pół roku i na nową domenę wszystko wrzucę, sam już nie wiem?