W pozycjonowaniu liczą się linki, linki i jeszcze raz linki. Czy aby na pewno i tylko? Ruch generowany przez użytkowników na stronach internetowych to doskonały czynnik weryfikujący jakość linków. Czy wkrótce będzie miał bardzo istotne znaczenie przy pozycjonowaniu? Dlaczego pozycjonowanie stanie się trudniejsze i będzie miało więcej wspólnego z marketingiem?
Pamiętam jak ponad rok temu Tomek Frontczak, na jednym ze spotkań pozycjonerów w Poznaniu, przedstawił swoją tezę odnośnie linków i ruchu przez nie generowanego. Głównym punktem ww. tezy było założenie, że linki bezpośrednie zawsze będą miały wpływ na pozycje stron w indeksie Google (nie ma bowiem innej obiektywnej metody na zmierzenie wartości strony jak poprzez ilość i jakość linków do niej prowadzących). W prognozie Tomka miała się w przyszłości zmienić jedynie waga ruchu generowanego przez linki. W ostatnich tygodniach słowa Tomka nabierają zupełnie innego, bardziej realnego wymiaru.
Spróbujmy oderwać się na chwilę od rzeczywistości i wyobrazić sobie idealną wyszukiwarkę. W mojej wyobraźni rysuje się obraz wyszukiwarki w pełni web 2.0, w której to o wynikach wyszukiwań decydują sami użytkownicy – nawzajem polecają sobie strony, artykuły, dokumenty, dodają komentarze i opinie o znalezionych stronach.
Taką wizję wyszukiwarki jakiś czas temu przedstawił Jimmy Wales twórca Wikipedii, który ma zamiar budować nową alternatywną dla Google i Yahoo wyszukiwarkę internetową:
Nowa wyszukiwarka […] ma stanowić połączenie otwartego oprogramowania do wyszukiwania stron WWW oraz ludzkiej inteligencji, która ostatecznie uporządkuje wyniki wyszukiwania.
16 Marca została uruchomiona wyszukiwarka WikiSeek, która podobno stanowi silnik nowej wyszukiwarki Wikipedii.
Idealne wyniki wyszukiwań składałyby się tylko z wartościowych pozbawionych spamu stron a ranking byłby ustalany m.in. poprzez te same procesy, które aktualnie możemy zaobserwować na Digg.com i Wykop.pl. W tej utopijnej wizji nie byłoby także miejsca na pozycjonowanie stron… Jednym słowem indeks idealny – marzenie wielu internautów. Czy możliwy do zrealizowania?
Efekt Skali
Wszystko wskazuje na to, iż inżynierowie Google doskonale wiedzą, jaki element jest najtrudniejszy do zafałszowania w internecie. Jest nim ogromna ilość unikalnych użytkowników, czyli najzwyczajniej efekt ogromnego wolumenu userów Google. Próby manipulacji wynikami wyszukiwań przy algorytmach badania ruchu użytkowników są o tyle utrudnione, iż Google już teraz posiada bardzo zaawansowane i działające narzędzia do ochrony przed click fraud w Google AdWords/AdSense!
Dla wielu znanych mi osób z branży SEO argumentem oddalającym wprowadzenie mechanizmów badania ruchu jest fakt, iż powszechnie uważa się, że Google nie ma wystarczających zapasów mocy (co ostatnio zostało oficjalnie potwierdzone – zobacz artykuł Marzec miesiącem kłopotów Google) do tego typu zaawansowanych operacji.
W mojej opinii znaczna część danych o ruchu internetowym jest już teraz badana i przechowywana poprzez serwisy i narzędzia za darmo udostępniane, takie jak: Google Analytics, Gmail, You Tube, Google Toolbar, Blogger. Dodając do tego dane z Google AdWords i Google AdSense może się okazać, iż Google już teraz ustala wagę linków na podstawie badań ruchu użytkowników (czyli wykorzystuje to co i tak musi przechowywać !). Co więcej globalny potentat na rynku wyszukiwarek cały czas rozwija swoją infrastrukturę o coraz to nowe projekty warte setki milionów dolarów! Tak więc już wkrótce wszelkie argumenty mówiące o niewydolności systemu informatycznego Google najprawdopodobniej stracą na aktualności!
Jedna z serwerowni Google. Źródło zdjęcia: NYT
Wyniki spersonalizowane
Kilka tygodni temu w kwestii wpływu ruchu użytkowników na ranking wyszukiwań zabrali głos pracownicy Google – Matt Cutts oraz Marissa Mayer – dyrektor Google ds. Wyszukiwania.
W swoich wypowiedziach potwierdzają oni plany zwiększania wpływu użytkowników na rankingi, sporo jest także mowy o spersonalizowanych wynikach wyszukiwań oraz o spersonalizowanej stronie głównej Google.
Na ten temat powstały także dwa świetne posty na blogu ITtechnology.us:
Z powyższych wpisów możemy się między innymi dowiedzieć o przewidywanej przyszłości rankingów, a także o potwierdzających te tezy konkretnych patentach technologicznych jakie Google rejestruje i testuje już od lat!
Analiza ruchów użytkowników jest podstawowym parametrem wskaźnika pochodnego od Page Ranku – Alexa Rank, który z miesiąca na miesiąc z coraz większą dokładnością przedstawia rankingi ruchu na witrynach internetowych. Alexa Rank swoje wyniki zbiera przede wszystkim poprzez Alexa Toolbar, co przy porównaniu zasięgu Alexa Web Search do Google zdecydowanie daje do myślenia.
Jak ruch na stronach ma się do pozycjonowania?
Należy zwrócić uwagę, iż precyzyjne monitorowanie ruchów użytkowników w istocie znacznie uprasza algorytm i rozwiązuje szereg problemów dotychczas stojących przed inżynierami Google:
- linki rel=”nofollow” — stworzone jako odpowiedź na spamowanie Blogów i Wikipedi straciłyby rację bytu. W chwili obecnej tego typu linki nie są uwzględniane w tradycyjnym algorytmie Page Rank.
- Linki z farm linków, systemów wymiany oraz innych tworzonych tylko dla robotów przestaną mieć jakikolwiek wpływ na index.
- Linki niewidoczne, w kolorze tła, linki w stopkach i inne linki czysto pozycjonerskie nie generujące żadnego ruchu przestaną być uwzględniane przez algorytm.
W perspektywie nowych algorytmów spora ilość czynników o których pisałem w artykule Jak stworzyć najmocniejszy link pozycjonujący także przestanie mieć znaczenie. Okazuje się, że wystarczy zmierzyć CTR danego linka aby określić w dużym przybliżeniu jego wartość!
W nowym algorytmie czynniki takie jak Anchor, Title, Zbieżność tematyczna, Otoczenie linków tekstem znacznie straciłyby na znaczeniu, szczególnie w odniesieniu do linków typowo pozycjonerskich, czyli tych, które nie są klikane. Dla Google liczy się to co jest istotne dla użytkowników i jestem przekonany że tak właśnie będzie wyglądał algorytm w niedalekiej przyszłości.
Rewolucja?
Problem poruszany w tym artykule w mniejszym stopniu dotyczy polskich SERPów z uwagi na niższy stopień zaawansowania algorytmów działających w polskim internecie. Należy się jednak liczyć iż szybki rozwój Google w Polsce i na świecie przyczyni się do wyrównywania różnic w zaawansowaniu algorytmów. W ostatnim wpisie na Blogu Webmaster Central Blog mogliśmy przeczytać, iż:
Dbając o polskich użytkowników, Google niedawno ulepszył algorytmy i metody weryfikacji istotnych linków.
Cytat ten prowokuje mnie do stwierdzenia, iż większość „istotnych linków” (ze stron o wyższym Page Rank, real Page Rank) prowadzących do naszych stron jest już teraz monitorowane przez Google. No i należy pamiętać o ręcznej manipulacji wynikami przez pracowników Google, co może dotyczyć 10% wyników.
Myślę jednak, że nie należy spodziewać się, iż Google wprowadzi Update algorytmów na skalę Florydy czy Jaggera.
Jakby nie było Google Inc jest spółką giełdową i wszelki czarny PR jest raczej niewskazany, dlatego też moim zdaniem wszelkie algorytmy będą wprowadzane stopniowo, testowane na małych grupach użytkowników lub innych wyszukiwarkach Google pokroju Search Mash.
Jedyne co nam pozostaje, to konsekwentnie inwestować w metody White SEO i User Friendly, a jeśli już kupować linki i stawiać zaplecze to wartościowe, generujące ruch i ściśle tematyczne. Oczywiście jeżeli myślimy przyszłościowo i chcemy opierać strategie marketingową na kilku filarach.
Przypominamy, że wielkimi krokami zbliża się konferencja I ♥ Marketing & Technology, która odbędzie się już 22–24 października 2024 roku oraz organizowane przez nas 33 szkolenia z zakresu marketingu.
Jeśli chcesz być zawsze na bieżąco, zamów prenumeratę magazynu sprawny.marketing!
O roli ruchu i mierzeniu klikalności linków pisałem już w styczniu. Mimo, że były to wstępne obserwacje, wniski zostały w komentarzach przyjęte raczej z niedowierzaniem.
Dzisiaj powiem więcej. Nie tylko klikalność linków się liczy, ale również „struktura” ruchu w pozycjonowanym serwisie. Im jest mniejszy udział ilości wizyt użytkowników z naturalnych wyników Googla do wszystkich wizyt, tym łatwiej wypozycjonować taki serwis. Trochę paradoks, ale się sprawdza… :)
Google stara się jak najbardziej uodpornić swój algorytm na zabiegi pozycjonerskie, nic więc dziwnego, że inwestuje takie pieniądze w rozwój technologii personalizacji i mierzenia ruchu internetowego.
Warto zauważyć, że Google swoje badania prowadzi już od bardzo dawna, pierwsze badania dotyczące tej tematyki pochodzą nawet z 2004 roku. Już teraz 20% wyników u osób zalogowanych na konto Google może pochodzić z historii wyszukiwania.
Ciekawym aspektem wyszukiwania może być też uwzględnienie aspektów lokalizacyjnych. Google prowadzi badania nad uwzględnieniem uwarunkowań lokalności poszczególnych słów kluczowych. Inny zasięg geograiczny będzie miało zapytanie „restauracje” (szukamy raczej restauracji w miejscowości, gdzie jesteśmy), inne zaś „firmy transportowe” (miejsce pobytu ma już mniejsze znaczenie).
Jeżeli do tego doda się badanie ruchu internetowego – np. wspomniana klikalność linków, czas pobytu na stronie, zagadnienia personalizacji – czy odwiedzam głównie strony opisujące zwięrzęta, więc w zapytaniu „jaguar” interesuje mnie zwierzę, a nie samochód, to może się z tego zrobić ciekawy mix :)
Wydaje mi się to raczej niemożliwe do zrealizowania na większą skalę. Google nie może i nigdy nie będie mogło obserwować klikalność na wszystkich stronach www :-)
Hej wszystkim,
Tak czytam i sie zastanawiam wlasnie to o czym Bellois pisze – jak oni maja mierzyc te klikanosci, CTR etc. na cudzych stronach – jakies magiczne mechanizmy, ma ktos jakas teorie na ten temat?
Aczkolwiek ciekawy artykul :-)
Serdecznie pozdrawiam,
Kamil
Pewnie zalozenie jest takie, ze kazdy bedzie korzystac z google analytics, innego wyjscia nie ma. No chyba, ze maja zamiar kupowac dane z calego swiata od takich firm jak Gemius i podobnych. Ich plany sa dosc odwazne, ale watpliwe w realizacji.
Jakiej przegladarki uzywacie? Firefox 2? no to bez zadnych zmian w ustawieniach informujecie Google o calym ruchu.
Do tego toolbary, desktop search i ten link ktory podawalem w pierwszym komentarzu — web history (juz nie web-search). I mnostwo Google Analyticsa wszedzie. To oczywiscie nie wszystkie dane, ale baaaardzo duzo.
Nie trzeba nawet badać każdej strony. Wystarczy na podstawie odpowiednio dużej próby (a te nie jest mała zważywszy na to, o czy, pisał Krzysztf) stworzyć odpowiednie wzorce zachowań ludzi (co kilkają, dlaczego, jak się zachowują) i później te dane odpowiednio weryfikować i modyfikować.
Zresztą w wyszukiwaniu też obowiązuje swego rodzaju zasada Pareto: za dużą część wyszukań, a co za tym idzie reklamy odpowiada względnie nieduża część słów kluczowych. Google patrzy na wszystko z poziomu finansów, więc największy nacisk kładł będzie tam, gdzie się kryją pieniądze.
Jak słusznie zauważył powyżej Mariusz, do stworzenia wzorca nie trzeba analizować wszystkiego, tylko mieć reprezentatywną próbę.
Jeżeli chodzi o ilość zapytań w Google, to Pareto nie jest dobrym modelem opisu, tylko długi ogon. I na długim ogonie Google w dużym mierze budowało swój rozwój, choć znowu sam przychód generowany dla firmy może podchodzić pod zasadę Pareto. Ale odbiegamy od tematu, wkrótce napisze o tym więcej, będzie okazja podyskutować :)
Laszlo i Mariusz dzięki za wpisy bo już poważnie rozważałem update artykułu o przykłady na szeroko zakrojoną „inwigilację” ze strony Google. Ciekawy link odnośnie Firefox’a który ma prawie 30% rynku przeglądarek w Polsce – http://arin.jogger.pl/2006/10/26/firefox-2.0-czyli-google-ma-donosiciela/
Wszyskto ok, ale wydaje mi się, że taki algorytm będzie premiował dużych, małych (w znakomitej większości) skaże na działania viralowe (marketingowe), natomiast o pozycjach w pierwszej 10, trzeba będzie zapomnieć.
Co do Digg’a czy wykopu, to są one łatwe do oszukania, więc daleko im do ideału, ale może niedługo pojawi się algorytm, który będzie niemożliwy do oszukania…
Tomek: Oczywiście, że Google buduje swoją siłę na długim ogonie. Jednak trzeba przyjąć, biorąc nawet pod uwage ciekawy artykuł z Waszego serwisu o Paragrafie 31 , że Google zależy w pierwszym rzędzie na kontrolowanie sytuacji jeśli chodzi o najbardziej konkurencyjne słowa. Z jednej strony wręcz zmuszają firmy do przechodzenia na wykorzystywanie długiego ogona, przez co sobie powiększają rynek, z drugiej zaś nakręcają powolną spiralę wzrostu cen reklamy. Czekam na artykuł :)
Cezary: Ciekawy artykuł i ciekawe pole do dyskusji. Google jest w tej komfortowej sytuacji, że jego szybkie bogacenie się, coraz bardziej natarczywe wchodzenie w sferę prywatności użytkownika nadal jeszcze „uchodzi mu na sucho” i w niedużym stopniu jeszcze szkodzi jego wizerunkowi.
Bullseye: Tak to jest w każdym innym biznesie, że zostaje na polu tylko ten, kto odpowiednie zaplecze: kapitał, know-how i itp. Trudno, żeby w wyszukiwaniu, które oznacza coraz większe pieniądze było inaczej
Przez następne kilka/kilkanaście lat ruch może być jedynie jednym z czynników pozycji. Moja opinia od tamtej dyskusji z Tomkiem niewiele się zmieniła.
Do tego ranga „wejść” nie będzie duża. By Google mogło naprawdę brać wejścia pod uwagę musi być spełnione dużo czynników społecznych i technicznych.
GT musiałby być dominujący, GA oraz FF 2.0 (od początku wiadomo, że to szpieg). Na razie mogą sprawdzić tylko mały % ruchu, dlatego nie może być on brany mocno pod uwagę.
Nie zapominajmy też o np. doorway`ach, które jak wiemy mogą wygenerować potężny ruch dla docelowej domeny, która nie może być za to ukarana.
nawigator: Ciekawa teoria, warto się temu przyjżeć.
Bullseye: Na pozór logiczne wydaje sę to co piszesz –> promowanie dużych. Jednak tak naprawdę nie leży to w interesie Google, ci „duzi” mogą dużo zapłacić za AW.
Czarek: Od około 3 miesięcy linki rel=nofollow działają troszke inaczej niż w tamtym roku i nie stawiałbym tutaj tezy, że nie są uwzględniane w algorytmie.
„linki rel=nofollow działają troszke inaczej ”
czyli jak?
wencki: jedną ze 'zmian’ dotyczącą 'nofollow’ można zauważyć w operatorze 'link’…
mkane zgadzam się w zupełności co linków nofollow, dlatego właśnie napisałem: „W chwili obecnej tego typu linki nie są uwzględniane w tradycyjnym algorytmie Page Rank.” – podkreślam tradycyjnym… czyli w mojej opinii nie wpływają na klasyczny Page Rank jednak na pozycje strony owszem m.in. poprzez badanie ruchu generowanego przez linki z tym atrybutem!
Google orze jak może… ale pozycjonerzy także nie spią:)
Ciekawe… Zastanawiam się nad dodaniem statystyk GA, ale jest wiele niepotwierdzonych opinii, że szkodzą one na pozycję strony. Potwierdzam jednak tezę, że obowiązkowo trzeba być w Alexa Trafiic
Moim zdaniem algorytm google będzie ewoluuował, jednak znacząco się nie zmieni…przynajmniej przez 2-3 lata. Pozycjonowanie nadal będzie odbywać się wg starych reguł – czyt. linki i jeszcze raz linki.
Widać, że google cały czas ewoluuje. Przykładem może być upadek setek katalogów qlweb i spadek PR wielu stron w ostatniej aktualizacji.
Ważne czy nas użytkownicy dobrze postrzegają, wówczas ruch na stronie www wytworzy się automatycznie :)
Nic to nie da, przecież ruch może być generowany sztucznie. Odpowiedni sofcik będzie odwiedzał stronę z naszym linkiem i wygeneruje kliknięcie.
tworzenie stron www – taki trick od razu zostanie zdemaskowany.
No właśnie a co ze sztucznym generowaniem ruchu na stronie? Przecież google tego nie odróżni
Interesujący tekst. Teraz pozyskanie ruchu na stronie będzie wymagało ciągłej pracy nad użytecznością.
Fajne Informacje podajesz. Mam takie pytanie – jak google będzie interpretowało ruch i skąd będzie wiedziało że jest on naturalny?
i druga kwestia. Jeśli ruch na stronie będzie jednym z głównych czynników to wszystkie nowe strony i te bez zaplecza finansowego są z góry skazane na porażkę (efekt skali)
"Cytat ten prowokuje mnie do stwierdzenia, iż większość „istotnych linków” (ze stron o wyższym Page Rank, real Page Rank) prowadzących do naszych stron jest już teraz monitorowane przez Google. No i należy pamiętać o ręcznej manipulacji wynikami przez pracowników Google, co może dotyczyć 10% wyników".
@typy bukmacherskie:
właśnie ostatnio spotkałem się z opiniami że serwisy o b.dużym ruchu są przez google ręcznie manipulowane. Prosty przykład jak globalne serwisy w googlu są do odnalezienia tylko na ich główne frazy lub ewentualnie jakieś artykuły tematyczne. Np. Onet, wp, interia, wiele mają subdomen z serwisami tematycznymi (np.technologia), mimo to po wpisaniu 'technologia' nie wszystkie są w topce. Przykład nie jest idealnie trafiony, lecz ma pokazać idee, że małe firmy są pozycjonowane przez google naturalnie, te duże serwisy są ograniczane manualnie przez pracowników googla.
Dlatego nadal jest sens tworzyć coś nowego i zaistnieć w topce.
Wytłumaczcie mi jedną rzecz. Załóżmy, że na jakiejś stronie znajduje się bezpośredni link do mojej witryny – skąd google ma wiedzieć, jaki ruch generuje?
Dlatego warto inwestować w kupno ruchu na stronie! Moja strona go posiada!
Ciekawie napisane. Cały czas trzeba być na bieżąco, bo wypadnie się z biznesu. Pozycja to rzecz święta.
I to by miało rację, sama prowadzę bloga i go w sumie wcale nie pozycjonuję i mam ruch około 100 wejść dziennie a do tego jestem wysoko w wyszukiwarkach w google coś w tym musi być
Interesujące spojrzenie na sytuację, każdy powinien rozczytać również zaznajomić się
z tematem.
Mam z żoną sklep który starannie pozycjonuję, ale jak znacznie zwiększyć jego oglądalność, jak widzę linkowanie nie daje efektu, choć są dni że jest lepiej. W google się bardzo dużo pozmieniało, ale długi ogon to praca na kilka lat więc odpada. Może jakieś pomysły ?