W odpowiedzi na pytanie „Jak w prosty sposób oszacować wartość linka” podczas gdy PageRank nie jest nam już wyświetlany, a inne alternatywne wskaźniki zewnętrznych narzędzi mają często sporą granicę błędu.
Dla przypomnienia powiem, bo to pytanie nadal się pojawia i wiele osób wciąż sugeruje się tym parametrem: „PageRank umarł, nie ma go i prawdopodobnie już nigdy nie będzie”, a wskaźniki które widzicie w toolbarach są całkowicie nieaktualne. Oczywiście PageRank pokazywany dla szerszej publiczności, ten wewnętrzny nadal funkcjonuje i ma się całkiem dobrze, wciąż jest czynnikiem bazowym dla Google. Natomiast sposób w jaki przepływa zmienił się i to niekiedy nawet bardzo.
Wracając do początku, skoro PageRank nie jest już publicznie podawany, a nadal gra ważną rolę to jak go określić? czym go zastępować? Narzędzia takie jak Ahrefs czy Majestic bazując na swoich wzorach starając się odzwierciedlić jakość witryny i w wielu wypadkach idzie im to całkiem dobrze. Ja osobiście zwracam uwagę tylko na TrustRank Majestica ale do lepszego określania jakości witryny i odpowiedzenia sobie na pytanie czy link z niej pochodzący na pewno będzie dobry używam czegoś zupełnie innego.
WebRank
WebRank to najprościej mówiąc wartość witryny z punktu widzenia ogólnego SEO. Niewidoczny PageRank + UserRank, o którym napiszę kiedy indziej. Aby zdefiniować jakąś wartość dla niego należy wziąć pod uwagę kilka różnych aspektów. Czołowym i najważniejszym z nich jest ruch organiczny. Drugim natomiast jest widoczność określona poprzez ilość słów kluczowych dla których dana witryna pojawia się na rozsądnych miejscach w wynikach wyszukiwania.
Wiele osób zapewne pomyśli, że to jedno i to samo, tak ale nie do końca. Jedna strona może mieć setki odwiedzin dziennie ponieważ znajduje się na wysokiej pozycji dla często wyszukiwanej frazy, a druga może być wysoko na mniej atrakcyjne ale w znacznie większej ilości słowa kluczowe.
Jest to ważne ze względu na spamowość, jeżeli strona osiąga wysokie pozycje tylko na trzy trudne słowa kluczowe to WebRank niekoniecznie będzie dobrym wyznacznikiem jakościowym bowiem efekt ten może być chwilowy i zrobiony samymi linkami. Stąd też warto zwrócić uwagę na zakres takich słów, ich ilość, rozległość tematyczna i okres utrzymania widoczności.
W konsekwencji całość sprowadza się do jednego parametru i tak na dobrą sprawę pozwala nam on bardzo szybko odrzucić słabe miejsca, które tego ruchu praktycznie nie mają, a linki z nich będą słabe i ryzykowne. Na dobry ruch i widoczność mają wpływ dobre linki, wartościowa treść, czynniki behawioralne oraz wiele innych sygnałów rankingowych stosowanych przez Google zatem tak na prawdę jest to dosyć ogólny wyznacznik odpowiadający jakości i mocy witryny.
Dla czego ma to sens
Googlowcy już od lat jak mantrę powtarzają „najważniejsze jest zadowolenie użytkowników”, „twórz treści wysokiej jakości tak aby użytkownicy cię pokochali, a Twoja strona będzie pojawiać się wysoko w wynikach wyszukiwania Google”. I na pewno coś w tym jest. Bo niby jak to się dzieje, że strona z mniejszą ilością treści i linków potrafi wyprzedzić konkurencję, która w tych kwestiach od niej znacznie odbiega? Swoją drogą myślę, że wpływ zewnętrznego PageRanku coraz bardziej słabnie, a moc płynąca z innych sygnałów rankingowych rośnie dzięki czemu White Hat Seo ma się coraz lepiej.
Kolejnym argumentem jest Content Marketing zewnętrzny. Tu nie chodzi tylko o pozyskiwanie linków z miejsc, które jeszcze nie zostały oflagowane czy też dywersyfikacji ich źródeł. Chodzi o pozyskiwanie mniejszej ilości odnośników ale ze stron, które rzeczywiście mają ruch i wnoszą coś wartościowego do internetu. Pozyskanie linku ze strony o dużym ruchu organicznym ma często bardzo wyraźny wpływ na ranking strony docelowej. Podstawowy PageRank odnosił się głównie do mocy oraz ilości linków ale myślę, że ze względu na prostotę jego nabicia, Google prawdopodobnie poszło o krok dalej i nalicza go w tej chwili również na podstawie innych sygnałów, tych które otrzymuje bezpośrednio od użytkownika.
Content Marketing wewnętrzny również obecnie pomaga ale żeby go w pełni wykorzystać do budowania widoczności i wysokich pozycji dla określonej grupy słów kluczowych trzeba najpierw zrozumieć co tak na prawdę bierze pod uwagę algorytm. Pomijając oczywiście sygnały wynikające z dobrej optymalizacji Seo OnPage oraz linki zewnętrzne.
Ostatnim co przekonuje mnie do słuszności i wiarygodności WebRank to korelacje. Każda mocna witryna o wysokiej jakości ma spory ruch tak? ma swoją publiczność, dobre linki itd. Natomiast każda słaba strona tego ruchu nie ma lub ma go niewiele (czy też ma go na krótko), a linki do niej kierujące są raczej beznadziejne.
W przypadku witryn o dłużej utrzymującym się ruchu średnim dla danej grupy słów kluczowych pomimo problemów z jednym z czynników, link z nich pochodzący nadal będzie w miarę wartościowy. Ale w przyszłości jeżeli sytuacja za bardzo się nie zmieni, może okazać się on nieco ryzykowny.
Fajne te kolorki. Tylko ikonografika trochę neizrozumiała na początku 🙂 Teraz tylko paczeć jak webrank będzie nowym czynnikiem w SWLach i na giełdach 😉
Właśnie o to mniej więcej chodzi, że widoczność farm jest zupełnie inna niż precli czy też średnich miejscówek z Whitepressa. Dzięki temu łatwo jest ocenić gdzie pozyskanie mniejszej ilości linków będzie miało mocniejszy i mniej ryzykowny wpływ na ranking.
Wg. mnie to kompletnie nie przejdzie.
Page Rank był najbliżej ocenie wartości strony(w kontekście SEO), chociaż i tak idealny nie był.
Teraz najlepiej mimo wszystko sprawdza sprawdza się TrustRank, bo jest dostępny z automatu dzięki sieciom botów MJ.
PageRank nie ocenia jakości strony tylko linków, które do niej prowadzą 😉
A wszelkie TrastFlowy to tylko założenia tak jak mówiłem. Majesticowe wydają się być sensowne jeżeli chodzi o ilość trefień ale to co najlepiej odzwierciedli opinię algorytmu o całej stronie to właśnie jej widoczność w Google. Nie oszukujmy się 😉 Widoczność to wynik wszystkich obliczeń wykonanych przez algorytm Google.
” to tylko założenia” – a WebRank to coś innego? 🙂
Przeczytaj jeszcze raz ostatnie zdanie z mojego komentarza. Nie do końca takie założenie skoro dane wynikowe to dokładnie to co ocenił algorytm, pod który chcemy pozycjonować.
Google nam tego na razie nie mówi wprost, ale ich zmiany poszły własnie w tę stronę o której piszesz. Dlatego kończy się era SWL i precli, bo oni zwyczajnie wiedzą czy strona ma wartość dla użytkownika czy nie, jeśli jest link ale brak ruchu to wartość spada.
A tam. Tak długo, jak to linki będą głównym czynnikiem rankingowym, nic się nie zmieni. SWL’ami nadal można osiągać przyzwoite wyniki. Zresztą w jaki sposób Google miałoby monitorować, która strona ma ruch? Po Analytics? Raz, że nie wszyscy tego szpiega instalują na swoich stronach, a dwa – oni nie mają nieograniczonych zasobów sprzętowych, więc raczej mało prawdopodobne, żeby wprost brali to jako kolejny czynnik rankingowy.
Chociażby zliczając wejścia z wyników wyszukiwania 😉 Myślisz, że tego nie robią? zapytaj Johna Muellera 😉
Co do zasobów.. mają 😉
Wiesz Łukasz, to co tam Mueller mówi na hangouts’ach to jedno, a to co faktycznie działa to drugie 😉 Własne zaplecze mimo że ruchu organicznego nie ma w zasadzie żadnego, a też kopie.
Oczywiście analiza ruchu strony zewnętrznej, gdzie SEO’wiec próbuje posadzić linka ma już pewne znaczenie, bo brak ruchu jest na ogół równoznaczny z tym, że strona jest zaniedbana (potencjalnie zaspamowana), ale już w kontekście wyników w SEO jako takich, to nie wiem czy ruch z organików ma jakikolwiek (jeśli w ogóle) wpływ na układanie wyników (nawet jeśli monitorują ruch strony po wejściach z organicznych, to danych do odesłań z innych stron i wejść z palca bez Analytics’a już znać nie będą).
Nie sądzę, że strona, która ma 100 dobrych BL będzie lepiej dopalała stronę docelową od tej, która będzie miała tych BL tylko 50, ale za to będzie miała więcej wejść z wyników organicznych. Right?
Strony budowane w oparciu o bardzo dobry content wchodzą w serpy jak w masło, co więcej linkowanie z nich do stron „klientów” również pokazuje że przekazują one lepszą moc niż spamy. Chociaż czasami zastanawiam się jak patrzę na TOPy czy aby na pewno Google wie co to znaczy jakość… 😐
W równaniu tworzącym jakąkolwiek alternatywę dla Page Rank nie może być brany pod uwagę ruch. gdyż ta informacja jest niedostępna (poza oczywiście własnymi witrynami) – chyba, że rozmawiamy zupełnie teoretycznie. W mierzeniu widoczności witryn sprawdza się za to całkiem nieźle Searchmetrics.
Właśnie zaprzeczyłeś sam sobie 😉 Jak to nie możemy oszacować ruchu mniej więcej skoro mamy narzędzia takie jak SearchMetrics, które są pod tym względem bardzo dobre.
Fajna ikonografika. Już nie pierwszy raz trafiam na Twój blog. Leci sub. Powodzenia 🙂
Czyli można rozumieć, że jeden link ze strony z ruchem na poziomie 50 wejść miesięcznie i nowymi treściami co 3-4 tygodnie, da stronie „klienta” więcej, niż dwa linki ze stron na których nie pojawiają się nowe treści, a ilość wejść oscyluje w granicach 0-20 wejść, z czego 50% ruchu to ruch spamerski?
Jak się ma to do mocy linków follow i nofollow?
Lepszy nofollow z dobrej witryny niż follow z jakościowo słabszej, czy follow zawsze będzie lepszy?
Jak to wygląda w przypadku for? Linki z for o średniej jakości będą miały większą moc, niż te z SWLi?
Też mi się wydaje, że coś już w tym jest, sam staram się pozyskiwać linki, w takich miejscach, w których będą klikane przez użytkowników.
Chyba najprościej opisany algorytm wartościujący linki
Bardzo udane zestawienie. Pokazuje jak to aktualnie wygląda, zgadzam się z przedmówcami, że epoka większości starych technik SEO jest już zakończona. Treść na stronie oraz jej rotacja, UX, ruch, naturalne linki – to wszystko przekłada się moim zdaniem na sukces, co fajnie pokazałeś w artykule.
Świetny wpis. Dobry argument w rozmowie z klientem na temat reklamy.
Dobry temat, ale zabrakło konkretów. Z tekstu nie wynika jaki ten link ma być. Czy w tekście, czy może z komcia, może z sygnaturki, a może profilowy? Sporo teorii, ale mało praktycznych informacji tutaj 😉
Poza tym jest pytanie: jakich stron się to tyczy? Inny link powinien kierować do sklepu, inny do bloga, inny do strony wizytówki, a jeszcze inny do serwisu informacyjnego.
Powiedz mi, czy link z sygnaturki, nagłówku komentarza lub profilowy są naturalne? 😉
Konkrety jak konkrety, opisałem tylko wyrywkę tego nad czym warto się zastanowić. Rodzaj linka, jego anchor text itd. zależą już od szeregu innych czynników.
Chyba na razie musi wystarczyć MozRank 🙂
Rozważania nieco teoretycznie, ale nie od dziś wiadomo że:
dobra strona (i optymalizacja) + dobre linki = efekt
Można korzystać się z MozRank, ale on też nie pokazuję do końca prawdziwej informacji. To wszystko – teoria. Nawet dobre strony mogą dostać filtra. I wtedy link z tej strony stanie tragicznym 🙁
Nie zawsze tragicznym. W przypadku czystego spamu może ale to i tak jest tylko kilka linków w całym profilu.
W sumie pomysł bardzo ciekawy, z jednym małym zastrzeżeniem – ten sposób oceny „wartości” wydaje się bardzo czaso- i pracochłonny. Gdyby powstał jakiś automat (tak jak jest np. z oceną tzw. TrustRank), to byłoby wyśmienicie…
Przecież są takie narzędzia 😉
Wszystko co służy do monitorowania i estymacji widoczności/ruchu w organiku.
Na przykład SS…
Ciekawa idea. Ale rzeczywiście dosyć czasożercze i trudne do realizacji..