John Mueller obalił dziś kilka mitów SEO

19 0
Powiedz innym o tym wpisie 😉

Dzisiaj w trakcie hangoutu dla webmasterów John Mueller podzielił się z nami wieloma ciekawymi informacjami. Między innymi wymienił kilka bardzo częstych błędów i problemów jakie popełniają webmasterzy, rozjaśnił sytuację na temat zduplikowanych treści i obalił kilka stale krążących w świecie seo mitów. Zapraszam do lektury i oryginalnego wideo.

Zduplikowana treść

Wiele osób twierdzi, że zduplikowanie treści zarówno wewnątrz witryny jak i pomiędzy domenami może być powodem do nałożenia kary oraz wielkim problemem. John potwierdza, że nie do końca jest to prawdą. Google doskonale radzi sobie z takimi sytuacjami i potrafi znaleźć wspólne elementy w obu przypadkach. Jeżeli mówimy o zduplikowanej treści znajdującej się wewnątrz jednej domeny, przykładowo opisy produktów które różnią się jedynie kolorami, Google wybierze tylko jeden z nich natomiast w przypadku każdego kolejnego duplikatu, część która się powtarza będzie najzwyczajniej w świecie ignorowana przez algorytm, a ocenie podlegną jedynie unikalne elementy.

Tutaj pojawia się pierwsza solidniejsza wskazówka, która obala pierwszy mit seo:

Plik robots.txt pomaga w uniknięciu zduplikowanej treści – bzdura

Zablokowanie przed robotami zduplikowanej zawartości wcale nie naprawia problemu, a w wielu przypadkach może stworzyć kolejne ponieważ algorytm nie jest w stanie rozpoznać zduplikowanej wartości aby móc ją później wyfiltrować. Zalecenia z których warto skorzystać w takich przypadkach to, odblokowanie kłopotliwych elementów w pliku robots.txt oraz naprawienie problemu w inny sposób, na przykład po przez:

Stosowanie czystych adresów URL o ile to możliwe
Stosowanie przekierowań 301
Wdrożenie tagów kanoniczych rel=canonical
Używanie narzędzia w GWT do konfiguracji parametrów

Również w wystąpienie zduplikowanej treści pomiędzy różnymi domenami, nie stanowi żadnego problemu i nie jest podstawą do nałożenia jakiejkolwiek kary od Google. Pod warunkiem, że poza zduplikowaną treścią na każdej z tych domen występuje również duża ilość unikalnej treści. Pokazane to zostało na przykładzie strony, która posiada ofertę na dwóch domenach anglojęzycznych z różnymi rynkami docelowymi, mianowicie com dla USA i co.uk dla Wielkiej Brytanii. Zduplikowana treść zostanie wychwycona przez algorytm, zaś strona, która będzie pokazywana w wynikach wyszukiwania, w tym przypadku zależy od lokalizacji użytkownika. Także jedyną konsekwencją będzie wybranie przez Google jednej z nich w zależności od tego, którą algorytm uzna za bardziej przydatną dla danego użytkownika. Taki rodzaj zduplikowanej treści jest w pełni normalny, naturalny i nie jest powodem do algorytmicznego zaniżania rankingu całej strony z wyjątkiem właśnie dopasowania wyniku do grupy docelowej co jest raczej oczywiste.

Ale, algorytm potrafi nie tylko odnaleźć zduplikowaną zawartość czy też fragment zduplikowanej treści, John twierdzi że doskonale radzi sobie również z rozpoznawaniem treści bardzo podobnych do siebie i w wielu przypadkach może traktować je jako takie same.

Kolejne obalone mity SEO

Współdzielone adresy ip dla stron są złe – nie prawda, jak wiadomo pula adresów w protokole ipv4 może się niebawem skończyć dla tego nie ma najmniejszych przeciwwskazań do tego aby umieszczać nowe strony na współdzielonych adresach ip.

Zbyt wiele błędów 404 jest złe – nie, pod warunkiem, że nie ma wśród nich ważnych podstron.

Strony afiliacyjne są złe – nie, ale powinny posiadać swoją własną unikalną treść.

Używanie disavow tool jest jednoznaczne z przyznaniem się do winy – nie, disavow tool jest praktyczny narzędziem, które pomaga nam zrzec się linków nad którymi nie mamy kontroli.

Kolejność tekstu w pliku html jest ważna – nie.

Meta keywords – nie używamy. Nie ma to żadnego wpływu na ranking tak samo jak i meta description, które jest używane wyłącznie do generowania opisu pokazywanego w wynikach wyszukiwania.

Jak uniknąć częstych błędów

Jeżeli strona nie była aktualizowana od lat, zawsze miała dobrą widoczność i nagle spadła w wynikach wyszukiwania, nie oznacza to, że trzeba nad nią pracować. Google stale ulepsza algorytmy i strony, które były dobre kilka lat temu niekoniecznie mogą być dobre i skuteczne dziś co również może być powodem algorytmicznego zmniejszenia ich widoczności.

Nie blokuj js, css, embedded resources, JSON/AJAX itp. Może to uniemożliwić robotom Google prawidłowe zrozumienie zawartości strony przez co jej widoczność może być gorsza niż na to zasługuje.

Stosuj prawidłową implementację tagów kanonicznych. Wielu webmasterów w dalszym ciągu odsyła za pomocą tagów kanonicznych wszystkie podstrony do strony głównej co jest wielkim błędem i może zmniejszyć widoczność strony o słowa kluczowe z tak zwanego długiego ogona.

Kolejne zalecenia

Dodaj mapę witryny, pomaga ona odnaleźć podstrony, których jeszcze nie odwiedził GoogleBot. Również dodanie kanału RSS/Atom może być bardzo pomocne. Dzięki temu indeksacja nowych lub zaktualizowanych treści może przebiegać niemal natychmiastowo. Można dodać tam również informacje o nowych komentarzach ale lepiej unikać eksponowania stale tych samych elementów, na przykład losowych lub sugerowanych wpisów.

Dodaj wszystkie cztery wersje swojej strony w Narzędziach Google dla Webmasterów http, https, z www i bez www oraz ustaw im prawidłową wersję kanoniczną, ponieważ bez tego Google traktuje je jako cztery różne strony.

Używaj często opcji renderowania strony w Narzędziach Google dla Webmasterów aby upewnić się, że roboty nie mają problemów z jej prawidłowym odczytaniem oraz żaden z elementów nie jest blokowany.

Odwiedzaj swoją stronę regularnie przy użyciu urządzeń mobilnych, spróbuj spełniać cele aby mieć pewność, że jest ona przyjemna w użytkowaniu dla użytkowników odwiedzających ją za pomocą tabletów i telefonów.

Nie bój się pytać o opinię, trendy się zmieniają więc warto dowiedzieć się co myślą o naszej stronie użytkownicy aby móc ją rozbudowywać w prawidłowym kierunku.

Penguin 3.0 po raz kolejny

Długo oczekiwana aktualizacja jest już bardzo blisko, nie pojawi się jeszcze dziś ale prawdopodobnie stanie się to już wkrótce chociaż jej wypuszczenie może zająć jeszcze nawet kilka tygodni. Google chce przeprowadzić jeszcze więcej testów aby mieć pewność, że wszystko działa tak jak należy. Doskonale zdają sobie sprawę jak wiele osób na to czeka ale dokładna data nie jest znana jeszcze nikomu, pojawi się gdy będzie gotowy, już wkrótce.

Hangout można oglądnąć w całości klikając na poniższy obrazek

john-mueller-obala-mity-seo

Powiedz innym o tym wpisie 😉

19 komentarzy dla “John Mueller obalił dziś kilka mitów SEO

  1. I bardzo konkretnie. Będzie gdzie odsyłać niedowiarków. Wiadomo, że keywords jest od dawna nieistotne. Z descriptions też można się zgodzić, ponieważ na grupach mnóstwo osób zgłasza, że w indeksie pokazuje im „dziwne wpisy” a po prostu nie zwraca uwagi na desc. tylko z tekstu zasysa opis. Renderowanie w GWT też prawa. Sam w ten sposób kilka robots.txt zmodyfikowałem bo się okazało, że google 'nieprawidłowo’ widział stronę. Canonical też klasyka. Z duplikacją, hm…tu do końca nie wierzę, to trzeba po testować, IP podejrzewałem od dłuższego czasu, że to już tylko maszynka marketingowa i zarobek dla 'hostingowców’ choć zapewne posiadanie własnego ip na jednej tylko domenie jej nie zaszkodzi 🙂 Jakość nie aktualizowanych stron. to też fakt, jak ktoś ma nadal stronę powiedzmy w html4 opartą na tabelach to i może odczuwać spadek, albo strona zbudowana kiedyś za pomocą pierwszych kreatorów, nie są to optymalne rozwiązania, oj nie. Mapa witryny – jasne. Rss także. Tylko czemu Atom, tylko atom się liczy, czy tak sobie napisałeś? Ja piszę sobie rss w RSS 2.0 i też jest dobrze. Tak się zastanawiam tylko…

    1. Napisałem Atom, ponieważ John o nim wspomniał ale raczej nie ma żadnego problemu z zastosowaniem standardów RSS 2.0 czy też nawet wcześniejszych wersji. Po prostu warto je mieć i powiadomić o nich Google aby mogli szybciej ogarnąć nową lub też zaktualizowaną zawartość.

  2. Piszesz, że były przykłady dla domeny .com i .co.uk czyli rozumiem, że wcale nie jest konieczne stosowanie hreflang w takich sytuacjach gdy mam np. 3 domeny anglojęzyczne: .com, .co.uk, .ca i na każdej ta sama treść 🙂

    1. Stosowanie atrybutu hreflang jest „zalecane” i może pomóc robotom w rozpoznaniu zarówno języka w jakim został napisany content, grupy docelowej (kraju) jak i powiązania pomiędzy kilkoma odsyłającymi do siebie stronami. W przypadku co.uk dodamy en_GB, w przypadku USA en_US itd. Więc za każdym razem określimy nieco inną grupę docelową i przy okazji poinformujemy bota, że ta konkretna strona posiada swój dedykowany odpowiednik również dla innej grupy docelowej. Nie jest to obowiązkiem, jeżeli zostało wdrożone źle, Google może to ignorować ale na pewno jest to rozwiązanie zalecane i ja również je polecam. Ten blog na przykład nie posiada innej wersji językowej, a mimo to hreflang jest tutaj wszechobecny.

      1. ok, zgadza się lepiej stosować niż nie stosować 🙂
        Przy okazji – jak radzisz linkować domeny z podobnym lub tym samym contentem, skierowane na różne lokalizacje? Chodzi mi o linkowanie między tymi domenami. Czy jeśli gdzieś w stopce wstawię takowe linki to będzie ok i czy będzie źle jak będą to linki follow?

        1. Jeżeli są to domeny w różnych językach / grupach docelowych (np. US i UK) połączone hreflangiem to prawdopodobnie można je podlinkować bez łamania wytycznych ale w sumie nigdy nikt z Google tego jasno nie powiedział. Sposoby są dwa, w meta oraz body, przy czym w body możemy podlinkować np. zdjęciem flagi czy też domeną krajową tak jak to jest zrobione na wikipedii.

  3. Świetne streszczenie. Od jakiegoś już czasu nikt, nie wrzuca co powiedział John, a tu niespodzianka. Zaskoczyło mnie stwierdzenie, że strony afiliacyjne niekoniecznie muszą być „złe”. Zastanawiam się, gdzie jest zatem granica między afiliacją złą a dobrą. Z pewnością problem tkwi w ilości unikalnych tekstów. Tylko ile i jak długie mają być te teksty 🙂

    1. Typowe dla stron afiliacyjnych jest to, że w wielu przypadkach są praktycznie pozbawione własnej unikalnej treści albo jest jej bardzo niewiele. Najważniejsza zawartość jest wczytywana na przykład za pomocą ramki i webmaster myśli, że to już wystarczy, że teraz trzeba już tyko nawalać linkami. Myślę, że John chciał powiedzieć że nawet afiliację da się zrobić prawidłowo z udziałem jakiejś sensownej wartości dla użytkownika oraz dbając o to aby rzeczywiście zasługiwała na to aby pokazywać się w rankingu. Strona jak strona, nie jest jakimś przestępstwem. Cały pogląd na tą sytuację chyba zmieniły wypowiedzi Matta ale one dotyczyły tylko spamerów. We wskazówkach Google jest to (może i dopiero poprawili) sprecyzowane słowami „Unikaj następujących technik – Uczestnictwo w programach stowarzyszeniowych bez dodatkowej wartości”. Także wile afiliacji to tak na prawdę puste strony z wieloma linkami, czemu się dziwić, że nie idą?

  4. No właśnie, ale gdzie jest ta granica. 2-4 zdania w opisie np. do banku? To raczej za mało, 20-30 zdań + obrazek? Wciąż za mało? 100 zdań, podział H2-H3, obrazki, filmiki + link afiliacyjny? To już jest ok?

    1. Tego niestety nie wie nikt. Nie ma gotowej recepty. Czasami algorytm lepiej ocenia krótszą treść, być może ze względu na jej dobrą unikalność ale pamiętajmy, że to tylko jeden z sygnałów dla algorytmu. Na pewno nie ma sensu skupiać się tylko na jednej czy też garstce podstron, warto wprowadzić też coś unikalnego, czego nie ma u konkurencji oraz nie być monotematycznym. Optymalizacja strony, optymalizacja treści, linki oraz inne sygnały. Budowanie białego wizerunku jest znacznie cięższą drogą i trzeba być bardziej kreatywnym. Owszem, wchodzą też spamy itd. ale co jest bardziej opłacalne na dłuższą metę?

    1. Link do kanału RSS można dodać do mapy witryny, można go też dodać w Narzędziach Google jako mapę witryny, (w tym samym miejscu ale zostanie rozpoznany jako RSS) ale sam kanał warto też podłączyć pod agregator, który Google często odwiedza. Feedburner został przez nich wykupiony już dawno temu więc zapewne chodzi głównie o ten konkretny. Dodatkowo można też wysyłać automatyczne pingi do odpowiednich RPC Google zaraz po aktualizacji lub dodaniu nowej treści. WordPress umożliwia to w standardzie. Ogólnie jeżeli Google już zaindeksuje sam link do kanału, prawdopodobnie też rozpozna go jako RSS i będzie odwiedzał znacznie częściej niż mapę witryny ponieważ w większości przypadków jest on lżejszy i roboty są w stanie go sprawdzać znacznie częściej. John mówi o tym dokładnie od 03:13

  5. Gdyby było „doskonale” to by sklepy z dużym DC on-site i off-site wiedziały że żyją a w wielu przypadkach tak nie jest. Nie czarujmy się Google mówi swoje, a praktyka mówi coś innego. Oczywiście w skali wszystkich stron odsetek ukaranych domen będzie nieduży ale widać ewidentnie schemat, za co domeny są karane. Cóż… z tym jest jak z negatywnym SEO, jeszcze do niedawna Google twierdziło że problemu nie ma…

    1. Tak to prawda. Podobno zduplikowana treść nigdy nie szkodziła ale niewiele osób zadało sobie pytanie czy brak unikalnej treści na takich podstronach również. W większości przypadków po odjęciu duplikatów zostaje spora ilość pustych lub niskiej jakości podstron w indeksie przez co PageRank jest przez nie odbierany z innych i obniża wartość całej witryny. Może nie wartość, moc.. rozkłada jej za dużo w stronę podstron, które nie pojawiają się w wynikach na żadne zapytania.

  6. Jeśli chodzi o kwestię pliku robots.txt.
    Bo chyba robię to źle.
    Bo np. strony sortowań blokuję w robots.txt, a według tego co napisałeś powinno się dać np. tag kanoniczny do głównej strony tej kategorii, aby Google mógł przejść po tych sortowaniach. Czy o to chodzi?

    1. Jednym ze sposobów jest zastosowanie narzędzi do konfiguracji parametrów w Narzędziach Google dla Webmasterów. Plik robots.txt tak jak napisałem, nie naprawia problemu ponieważ nie pozwala robotom zrozumieć co się dzieje blokując im do nich dostęp. Z drugiej strony ich odblokowanie bez dodatkowego przygotowania może wygenerować wiele zduplikowanych podstron, których nie chcemy mieć w indeksie. Także tak, warto dodać tag kanoniczny do adresu, do którego dopisywane są parametry. Tak konfiguracja powinna za każdym razem uświadamiać roboty, że nie chcemy indeksować podstron z parametrami,a jedynie tą, która znajduje się w tagu kanonicznym.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *