Cezary Lech

Ekskluzywny wywiad z polskim pracownikiem Google o pozycjonowaniu

Ponad rok temu niektórzy blogerzy (pozycjonerzy) w akcie irytacji na kolejne bany i tzw. koniec katalogów stron, intensywnie go szpiegowali. Na forum Google dla webmasterów też regularnie powtarzają się pytania o jego osobę – Kim jest Guglarz? Kim jest tajemniczy pracownik Google?

Redakcji Sprawnego Marketingu udało się przeprowadzić ekskluzywny wywiad z najbardziej znanym polskim członkiem zespołu Google Search Quality Team z Dublina. Wywiad był dodatkowo autoryzowany przez Matt’a Cutts’a oraz innych wysokich rangą przedstawicieli Google. Prezentujemy więc pierwszy polski wywiad z pracownikiem Google odpowiedzialnym za jakość wyników wyszukiwań. Będzie dużo o pozycjonowaniu często bardzo szczegółowo…
Zapraszamy do lektury…


[wykop][/wykop] Będziemy wdzięczni jeśli w ramach docenienia naszej pracy wykopiesz ten artykuł.

Sylwetka Guglarza

Googler (Guglarz) Kaspar Szymanski
Guglarz (Googler) – Kaspar Szymanski

Guglarz jest autorem kilku wpisów na oficjalnych blogach Google. Odpowiada m.in. za koniec katalogów stron, przedstawiał nam także wytyczne na temat linkowania lub sposobów zgłaszania SPAMu.

W powszechnej świadomości pozycjonerów Guglarz odpowiada za większość „katastrof” w polskich SERP’ach. Poniżej odpowiedzi Guglarza na szereg trudnych pytań.

Wywiad z Guglarzem

Cezary Lech: Występujesz jako Guglarz, możesz się nam przedstawić z imienia i nazwiska?


Guglarz: Myślałem, że to pytanie padnie :-) Nazywam się Kaspar Szymanski. Polską Grupę Dyskusyjną Google dla Webmasterów monitoruję jako Guglarz. Na blogach Google regularnie staram się pomagać webmasterom pod pełnym imieniem i nazwiskiem.

Cezary Lech: Za co odpowiadasz w Google?

Kaspar Szymanski: Pracuję w Google w zespole Search Quality. Przede wszystkim staram się zapobiegać pojawianiu się spamu w wynikach, aby nasi użytkownicy nie byli na niego narażeni. Takie jest moje główne zadanie. Komunikacja z webmasterami, w szczególności z europejskimi, jest również ważnym elementem mojej pracy. Dla zainteresowanych Udi Mamber niedawno napisał więcej na ten temat. Jeżeli chodzi o komunikację z webmasterami, chciałbym się podzielić kilkoma szczegółami dotyczącymi naszych wysiłków.

Od około dwóch lat zespół Search Quality w Dublinie ma udział w staraniach Google w nawiązaniu dialogu z webmasterami w ich rodzimych językach. W chwili obecnej, ja i mój zespół wspieramy kilka kanałów komunikacyjnych w szesnastu językach. Wspomniałem już o grupach dyskusyjnych, które monitorujemy. Odpowiadamy za Google Blog dla Webmasterów w języku niemieckim oraz mamy wkład w polski, angielski, francuski, hiszpański, włoski, rosyjski oraz turecki blog.

Od niedawna publikujemy również edukacyjne klipy video dla webmasterów. Moi koledzy Rebecca i Alvar zainicjonowali je w języku hiszpańskim. Dotychczasowy odzew ze strony społeczności webmasterów był bardzo pozytywny :-)

Z największym entuzjazmem podchodzę do bezpośredniej komunikacji z webmasterami – na konferencjach oraz Dniach Google. Podczas imprez takich jak SMX czy SES mamy okazje dowiedzieć się, z czym aktualnie borykają się użytkownicy oraz w jakim zakresie musimy poprawić komunikację z webmasterami. Ta forma bezpośredniej komunikacji sprawia mi największą przyjemność. Niestety, dotychczas nie mieliśmy okazji wziąć udziału w żadnej konferencji w Polsce. Sądzę jednak, że do końca roku znajdzie się taka możliwość.

CL: Jak dostałeś się do pracy w Google i w którym biurze Google pracujesz?

KS: Dwa i pół roku temu, po dłuższym pobycie poza Europą, gdzie pracowałem dla firmy komunikacyjnej, szukałem innego miejsca i nowego wyzwania zawodowego. Przypadkowo znalazłem nieco tajemniczo opisaną, jednak ciekawie brzmiącą ofertę pracy. Po złożeniu aplikacji wszystko potoczyło się szybko, przeszedłem proces rekrutacyjny i jakiś miesiąc po nawiązaniu pierwszego kontaktu Google sprawiło mi najlepszy prezent gwiazdkowy: ofertę pracy w Dublinie w europejskiej centrali tej wyjątkowej organizacji :-)

CL: Jak się czujesz w roli pogromcy polskich katalogów i jednocześnie twórcy pierwszego wpisu w języku polskim na oficjalnym blogu Google Webmaster Tools?

KS: Odnośnie Twojego pierwszego pytania, muszę przyznać, że nie byłem świadom, że mam tak groźną reputację! :-) Sądzę, że masz na myśli jeden z moich postów z zeszłego roku. Doszliśmy wtedy do wniosku, że musimy się jasno dla polskich webmasterów wypowiedzieć odnośnie skopiowanych treści. Kopiowanie treści, na przykład z katalogów i dodawanie ich do tematycznie niepowiązanych, ubogich w oryginalną treść stron nie jest postrzegane przez Google jako metoda white hat. Z perspektywy czasu stwierdzam, że było to właściwe posunięcie, ponieważ otrzymywaliśmy coraz więcej skarg dotyczących tej właśnie metody. Nie zrozum mnie źle proszę: uważam, że tematyczne, moderowane katalogi mogą być świetną metodą podwyższania wartości strony dla użytkowników. Niestety, niektórzy nadużywali dobre katalogi, jak na przykład DMOZ, aby sztucznie zwiększać ilość treści na własnych lub na stronach ich klientów. W konsekwencji niewielkie strony z unikalną treścią nagle rosły o kilkaset lub nawet kilka tysięcy tematycznie niepowiązanych dokumentów. Nasi użytkownicy nie byli zachwyceni widząc te strony w wynikach. Nie byli również zachwyceni właściciele stron po tym, jak te zostały tymczasowo usunięte z wyników Google w konsekwencji korzystania ze spamerskich metod. W końcu Matt Cutts i zespół Search Quality zdecydowali, że musimy uświadomić webmasterów, z czym może się używanie skopiowanych treści wiązać. Były to więc kroki podjęte wspólnie, a nie inicjatywa jednej osoby, więc nie widzę siebie w roli pogromcy katalogów.

Co do Twojego drugiego pytania, to nie wiedziałem również, że jako pierwszy pisałem po polsku na Blogu Google dla Webmasterów : -) Dziękuje za tę informację! Bardzo mi milo z tego powodu. Sądzę, że dialog z webmasterami w ich rodzimych językach jest bardzo ważny dla obu stron, ponieważ zarówno Google jak i osoby tworzące serwisy internetowe mogą na nim tylko skorzystać.

CL: – Czy ostatnie wzmożone działania Google, mające na celu usunięcie stron o wątpliwej jakości z indeksu wyników wyszukiwań są także formą walki z systemami automatycznej wymiany linków?

KS: Zawsze zwalczaliśmy metody black hat SEO, niezależnie od tego, które masz na myśli. Jak zapewne pamiętasz, na forum grupy oraz na Blogu Google dla Webmasterów przedstawialiśmy perspektywę Google na systemy linkowania. Ponieważ dla Google linki przedstawiają rodzaj rekomendacji treści strony, systemy linkowania oraz sprzedaż i zakup linków, które przekazują PageRank, wychodzą poza nasze Porady dla Webmasterów. Oczywiście każdy webmaster może budować strony tak, jak mu się podoba i linkować w taki sposób, jaki mu opowiada. Pamiętaj jednak proszę, że Google również ma prawo do ochrony użytkowników, jak i utrzymywania jakości swojego indeksu. Webmasterzy, którzy chcą, aby ich strony rozwijały się w indeksie Google, mają możliwość oceny swoich strategii linkowania z perspektywy Porad Google dla Webmasterów. A kto nie jest w 100% pewien, może dołączyć do Grupy Pomocy dla Webmasterów. Jest tam wiele pomocnych i mądrych osób, oraz Guglarz, monitorujący grupę i dorzucający czasami swoje 3 grosze ;-)

CL: – Czy Google zamierza ukrywać prawdziwą ilość zaindeksowanych podstron, tak jak ma to miejsce w przypadku wyników na komendę „link:”? Jeśli tak, to czy w Google Webmaster Tools macie zamiar dodać taką funkcjonalność?

KS: Wspólnie z moją koleżanką Juliane opublikowałem w maju post na polskim Blogu Google opisujący operatory „site:” i „link:”. Zasadniczo, wpisując operator „link:” przed nazwą strony otrzymuje się przykład linków prowadzących do tej witryny. Jeśli sprawdzimy prowadzące linki do zweryfikowanej strony w Narzędziach Google dla Webmasterów, to zobaczymy ich znacznie więcej, jednak nadal nie wszystkie. Powodem, dla którego wyświetlone rezultaty przy użyciu „site:” mogą się zmieniać jest asynchroniczna sekwencja aktualizowania Google Data Centrum. W zależności od ruchu i lokalizacji Google Data Centrum zwraca rezultaty generowane na różnych pozycjach w różnym czasie.

CL: – Ostatnio team pod kierownictwem Matt’a Cutts’a wprowadził zmiany do wytycznych dla webmasterów. Mimo wyjaśnienia wielu kwestii część webmasterów cały czas spiera się między innymi o parametr nofollow… Czy możesz nam wyjaśnić, czy używanie nofollow na wewnętrznych linkach sprzyja poprawie linkowania wewnętrznego i kierowaniu przepływem PageRank?

KS: Spotkałem się z webmasterami niemal obsesyjnie usiłującymi aktywnie kierować przepływem PageRank na ich stronach. Pozwól, że rozwinę temat: jest kika sposobów, którymi webmasterzy mogą kierować przepływem PageRank na ich stronach. Można zaopatrywać linki w <rel =”nofollow”> lub używać <meta content=”nofollow”> lub robots.txt w odniesieniu do całej strony. Webmasterzy mogą w ten sposób promować konkretne działy swoich stron, należy jednak pamiętać, że linki zaopatrzone w nofollow nie są uwzględniane przez Google, więc trzeba je wybierać z rozwagą.

Z jednej strony sądzę, że przykładowo „nofollowanie” linka do strony administracyjnej bloga ma sens, ponieważ Googlebot nie będzie się logował. Z drugiej, taki krok może zwiększyć poziom bezpieczeństwa serwisu. Natomiast „nofollowanie” przykładowo strony „O nas”, wychodząc z założenia, że użytkownicy nie są zainteresowani tą informacją lub dlatego, że są bardziej pożądani w sekcji z produktami jest krokiem, który bym głęboko rozważył. Podkreślam, że aktywne kierowanie przepływem PageRank używając <nofollow> jest dozwolone, ale zapewne nie jest to najlepsze wykorzystanie czasu dla SEO.

 CL: – Czy faktem jest, że w momencie gdy mamy dwa linki prowadzące do dokładnie tego samego adresu i w kodzie strony pierwszy z nich będzie oznaczony atrybutem nofollow, a drugi będzie bez tego atrybutu, to Google nie podąży za żadnym z tych linków? 

KS: Jak wiesz algorytmy Google są bez przerwy aktualizowane i wykorzystują dużą ilość sygnałów w celu określenia powiązań między stronami. Ponieważ jedyną stałą jest ewolucja, nie skupiałbym się za bardzo na detalach, które mogą się z biegiem czasu zmienić. Nasza intencja wyszukiwania i indeksowania oryginalnej treści natomiast się nie zmieni. Oczywiście webmasterzy mogą przeprowadzać eksperymenty w celu sprawdzenia aktualnej sytuacji pod tym kątem.

(red. Test już przeprowadziliśmy – wyniki wkrótce ;))

CL: – Czy pozycjonowanie to SPAM?

KS: Nie, white hat SEO to nie jest spam. W Centrum Pomocy dla Webmasterów niedawno dodaliśmy artykuł, w którym jest opisana perspektywa Google dotycząca SEO oraz kilka porad dla właścicieli stron jak znaleźć white hat pozycjonera.

CL: – Jak definiujesz SEO, pozycjonowanie?

KS: Mieliśmy kiedyś dyskusję na ten temat na forum Grupy Pomocy dla webmasterów. Sądzę, że każdy ma indywidualną perspektywę. Z tego, co obserwuję w Europie, ale nie tylko, SEO i SEM stają się coraz częściej elementami portfolio doradców. Podstawową różnicą, którą należy mieć na uwadze, są wyniki naturalnego wyszukiwania w przypadku SEO, kontra płatnym w przypadku SEM. Osobiście nie mam żadnej wyrafinowanej definicji SEO, ale myślę, że jeżeli ktoś ulepsza dostępność witryny dla botów oraz zwiększa jej widoczność dla wyszukiwarek to taka osoba zajmuje się SEO. Oczywiście dobry SEO potrafi zrobić więcej w celu podniesienia rankingu strony np. w zakresie dostępności oraz technicznych ulepszeń.

CL: – Czy Polscy Quality Raters czytają także Spam reporty?

KS: Niestety, nigdy nie miałem okazji porozmawiać z żadnym polskim Quality Rater, więc nie mogę ani potwierdzić, ani zaprzeczyć temu stwierdzeniu. Domyślam się, jakim zainteresowaniem musi się cieszyć zespół od zwalczania spamu w Google w świecie SEO. Pozwól, że wykorzystam okazję i wyjaśnię, że zespół Quality Rater oraz zespół Search Quality to dwie odrębne grupy. Jeżeli chcesz wiedzieć, czy ja lub koledzy z mojego zespołu czytają raporty spamu to odpowiedź jest tak, robimy to.

CL: – Czy blokując dostęp robotowi Google do swojej strony blokuje dostęp wszystkim rodzajom robotów Google? Także robotom AdSense i robotom wyliczajacym Quality Score dla reklam AdWords?

KS: Korzystając z robots.txt można blokować roboty indywidualnie. Jeżeli ktoś chce brać udział w programie AdSense jako wydawca, jednak bez udostępniania swojej witryny innym botom, wystarczy dodanie następujących dwóch linijek kodu do pliku robots.txt:

User-agent: Mediapartners-Google
Disallow:

Należy jednak mieć na uwadze, że żadne zmiany wprowadzone w pliku robots.txt nie będą uwzględnione w naszym indeksie, dopóki bot ponownie nie odwiedzi serwisu.

To samo odnosi się do AdsBota AdWords, naszego automatycznego systemu przeglądania stron docelowych. Należy pamiętać, że w celu uniknięcia podwyższenia CPC dla reklamodawców, którzy nie zamierzają ograniczać AdWords na swoich stronach, system ignoruje ogólne wykluczenia (User-agent: *) w pliku robots.txt.

Ponieważ ja mam bardziej do czynienia z naturalnymi wynikami, a nie reklamami, podejrzewam, że w Centrum Google dla Webmasterów znajdziesz więcej przydatnych informacji.

CL: – Czy stosując tag <noarchive> Google wyłącza podstronę z indeksacji lecz dalej podąża za linkami i przekazuje dalej PageRank linkom obecnym na tej podstronie?

KS: Mówiąc ogólnie, Googlebot przemierza stronę zaopatrzoną atrybutem <meta content=”noarchive”> w ten sam sposób jak stronę bez tego atrybutu. Różnica polega na tym, że takie strony są wyświetlane w wynikach Google bez linku do jej kopii.

CL: – Jak aktualnie działa przekierowanie 301? Zauważyłem swego czasu błąd w panelu Google Webmaster Tools wskazujący na fakt, że przekierowuję całą domenę wraz z podstronami na stronę główną nowej witryny… Czy taka sytuacja wpływa negatywnie na pozycję nowej strony?

KS: Jak wiesz przekierowanie 301 oznacza dosłownie „przeniesienie permanentne”. Nie wiedząc więcej na temat witryny, o której wspominasz, trudno mi jest zidentyfikować problem. Aczkolwiek, w najgorszym przypadku nie oczekiwałbym żadnych negatywnych konsekwencji dla nowej domeny. Funkcjonujące przekierowanie 301 natomiast może być korzystne, o ile pierwsza strona pozyskała zaufanie oraz grono użytkowników regularnie ją odwiedzających. Warto wspomnieć, że przekierowanie powinno być zrobione na poziomie URL-i.

CL: – Czy przekierowując 301 domenę na nowy adres w myśl zasady, definicji pozycja strony powinna być taka sama?

KS: Z tym pytaniem często się spotykam. Przekierowanie 301 jest świetnym rozwiązaniem, jeżeli chcemy oznajmić Google, że projekt został przeniesiony na nową domenę. Nie naraża ono serwisu na żadne negatywne konsekwencje, jednak nikt nie powinien oczekiwać identycznych pozycji w wynikach dzięki niemu. Konkurujące strony mogą równocześnie rozwijać się i zbierać linki dzięki świetnym treściom albo mogą powstawać nowe witryny na ten sam temat . Z tego powodu nie mogę obiecać identycznych pozycji, ale gorąco polecam używanie przekierowania 301 w ten sposób, jak opisałem powyżej. Nie polecałbym go, gdybym sam z niego sporadycznie nie korzystał.

Dla webmasterów obawiających się przenieść cały projekt, przeniesienie najpierw jednego podkatalogu w ramach eksperymentu może być dobrym rozwiązaniem. Jeżeli wszystko pójdzie dobrze i nie będą widoczne żadne dramatyczne zmiany w pozycjach, wówczas prawdopodobnie nic nie stoi na przeszkodzie, żeby przenieść całą witrynę.

CL: – Czy Google indeksuje tylko część treści na stronach znajdujących sie w supplementalu? Podobno Google indeksuje tylko tzw. „ważne” słowa stron znajdujących się w Supplemental Index?

KS: W przeszłości Supplemental index był używany do nietypowych dokumentów, które pojawiały się na raczej niecodzienne zapytania. Z perspektywy webmastera, niższa frekwencja pobierania była główną różnicą pomiędzy Supplemental indeksem a naszym głównym indeksem. Inżynierowie z Google pracowali intensywnie nad rozwiązaniem tego problemu i zniwelowaniem różnic między indeksami, odnosząc sukces we wrześniu 2007. W chwili obecnej różnice są minimalne. Każdemu, kto by chciał wiedzieć więcej o tym, jak Google indeksuje i rankuje strony, polecam ten link :-)

CL: – Czy indeksacja podstron tylko za pośrednictwem mapy strony i dodania jej do Google Webmaster Tools może powodować, że taka podstrona automatycznie wpada w Supplemental Index? Czy mapa może być podstawowym, a nawet jedynym elementem procesu indeksacji witryny?

KS: Dodanie mapy strony nie ma wpływu na to, czy podstrona znajdzie się w Supplemental indeks. Również samo dodanie adresu do mapy strony, nie oznacza, że Google go pobierze. Jeden scenariusz, w którym dodanie mapy strony może okazać się przydatne, jest wtedy, kiedy Google rozpozna identyczne dokumenty w jednym serwisie. Wtedy jest bardziej prawdopodobne, że dokument zgłoszony w mapie strony będzie preferowany.

CL: – Czy prawdą jest, że linki ze stron z Supplemental Index nie przekazują wartości anchor text? Jak oceniasz wartość linków z takich stron?

KS: Ja bym sugerował webmasterom, żeby nie koncentrowali się za bardzo na Supplemental indeksie. Google stara się adekwatnie oceniać wszystkie linki napotkane w procesie pobierania zasobów sieci. Uważam, że te linki są równowarte z innymi.

CL: – Dlaczego strony zbanowane cały czas notują odwiedziny robotów Google?

KS: To naprawdę zależy od indywidualnego przypadku. Powiedzmy, że webmaster odpowiedzialny za stronę z oryginalną treścią, która może zainteresować użytkowników, ukrywał słowa kluczowe na niej, w celu zwiększenia ich gęstości, co jest wykroczeniem poza Porady Google dla Webmasterów. Jeżeli on/ona korzysta z bezpłatnych Narzędzi dla Webmasterów, jest szansa, że Google go/ją powiadomi o usunięciu strony z widocznych dla użytkowników wyników na określony okres czasu. Googlebot jednak nadal będzie pobierał tę witrynę po to, żeby w momencie, kiedy problem zostanie usunięty i podanie o ponowne rozpatrzenie wysłane, jej najświeższa kopia była dostępna.

CL: – Czy linki wzajemne typu A< ->B, B< ->A są naruszeniem wytycznych Google?

KS: Jeżeli mówimy o linkowaniu naturalnym, polegającym na tematycznym związku to nie widzę pogwałcenia żadnych Porad Google dla Webmasterów. Pamiętam przypadek strony weterynarza i strony hurtowni karmy dla zwierząt położonej niedaleko, linkujące do siebie nawzajem. Ponieważ odwiedzający jedną z tych stron potencjalnie mogą być zainteresowani treścią/ofertą drugiej, ta sytuacja wydaje się mieć sens. Inny przykład to forum graczy linkujące do sklepu z sukniami ślubnymi w Warszawie oraz do sieci hoteli all-inclusive w południowej Azji – w tym przypadku jest raczej mało prawdopodobne, że linki zostały nadane z myślą o użytkownikach. Ewidentnie drugi przykład stanowi pogwałcenie Porad Google dla Webmasterów. Chciałbym dodać, że algorytm do oceny tematycznego powiązania między linkami, nad którym pracowaliśmy, funkcjonuje dosyć dokładnie.

CL: – W momencie gdy do tego samego adresu URL prowadzą dwa linki o innych anchor text, położone w innych częściach witryny… który link przekaże PageRank?

KS: PageRank jest niezależny od anchor tekstów. Kilka linków do tego samego dokumentu może mieć minimalny wpływ na przepływ PageRank, ale nie traktowałbym tego priorytetowo podczas budowania strony. Witryny powinny być budowane z myślą o użytkownikach, nie o wyszukiwarkach. Dlatego najlepiej jest dodawać linki tam, gdzie to ma sens i nie zwracać uwagi na obliczenie PageRank. Więcej informacji na ten temat można znaleźć w oryginalnym dokumencie http://dbpubs.stanford.edu:8090/pub/1999-66. A wszystkim tym, którzy nadal się zastanawiają nad tą kwestią, radzę zrobić eksperyment w celu zbadania sytuacji w danej chwili.

(red. Ten test też już przeprowadziliśmy)

CL: – Co Google myśli o stosowaniu SEO Friendly programów partnerskich?

KS: Jak już wspominałem linki powinny być nadawane wyłącznie ze względu na zawartość ston, jeżeli mają być zgodne ze wskazówkami Gooogle dla Webmasterów. Czerpanie korzyści ze stron z dobrą treścią jest uzasadnione, jednak webmasterzy, którym zależy na pozycji ich stron w Google powinni korzystać z technicznych możliwości, jakie dają atrybut <nofollow> czy plik robots.txt, aby zapobiec przypadkowemu przepływowi PageRank.

CL: – Jaka jest polityka Google wobec idei Pay Per Post? Czy polski odpowiednik serwisów tego typu (krytycy.pl) powinien wprowadzić w swoich wytycznych obowiązek nadawania linkom w artykułach sponsorowanych atrybutu nofollow?

KS: Cytując Matta: „Płatne linki, które przekazują PageRank, obojętnie czy chodzi o linki tekstowe czy płatne recenzje, mogą spowodować utratę zaufania Google”. Nie mówiąc o żadnym konkretnym serwisie, webmasterzy, którym zależy na budowaniu reputacji i zaufaniu Google powinni zadbać o to, żeby linki na ich stronach nie wyglądały podejrzanie. Dodam, że zespół Search Quality zrobił znaczne postępy w rozpoznawaniu płatnych linków w ciągu ostatnich lat i nie przestajemy nad tym pracować.

CL: – Co myślisz o otagowaniu wszystkich linków wychodzących z wykop.pl tagiem nofollow? Teoretycznie jest to zbiór ciekawych, organicznych i użytecznych linków, które warto by zaindeksować… Często wykop.pl jest początkiem podobno akceptowalnego przez Google organicznego Link Bait… Co z tzw. SEO 2.0, skoro linki z największego polskiego serwisu WEB 2.0 mają atrybut nofollow?

KS: Jako Guglarz nie komentuję żadnych serwisów, jednak chciałbym podkreślić, że wygląda na to, że używanie atrybutu <nofollow> na stronach, na których użytkownicy mogą dodawać swoją treść staje się coraz bardziej branżowym standardem, szczególnie od czasu kiedy ogólnie uznane serwisy jak Wikipedia podjęły ten krok. Uważam, że jest również dobrą metodą do zniechęcenia spamerów do nadużywania takich serwisów do zdobywania podejrzanych linków.

Myślę jednak, że ręczne lub zautomatyzowane usuwanie <nofollow> na podstawie ustalonych kryteriów, na przykład gdy konkretny użytkownik zawsze dodawał dobrej jakości oraz tematycznie istotne linki, jest dobrym podejściem, które Google by doceniło.

CL: – Czy różne wersje językowe stron (umieszczone w podkatalogach, subdomenach) powinny linkować do siebie nawzajem w sposób czytelny dla Google?

KS: To pytanie pada regularnie, często w odniesieniu do wielojęzycznych stron o tematyce turystycznej. Wzajemne linkowanie dokumentów w różnych językach w podkatalogach lub poddomenach dla Googlebota w widoczny sposób nie spowoduje żadnych negatywnych konsekwencji dla pozycji strony.

Jeżeli już mówimy o różnych wersjach językowych: Jest metoda pokazania Google dokładniej, dla użytkowników którego kraju konkretna sekcja strony jest przeznaczona, korzystając z opcji „Ustaw docelową lokalizację geograficzną” w Narzędziach Google dla Webmasterów. Moja koleżanka Susan opisuje dokładnie jak to narzędzie funkcjonuje w video klipie opublikowanym kilka miesięcy temu. Dokładnie rzecz biorąc „Ustaw docelową lokalizację geograficzną” jest idealnym rozwiązaniem, jeżeli chcemy dotrzeć do użytkowników z danego regionu, aniżeli użytkowników mówiących w konkretnym języku. Nie chcę się powtarzać i roztrząsać szczegóły ponownie, jednak gorąco polecam to narzędzie wszystkim miejscowym przedsiębiorstwom oraz lokalnym społecznościom.

CL: – API Google Webmaster Tools, jakie kolejne elementy będą dostępne za pośrednictwem API?


KS: Google zawsze stara się udostępniać użytkownikom interesujące rozwiązania oraz polepszać istniejące produkty, więc nie zdziwiłbym się, gdyby zespół odpowiedzialny za Google API miał takie plany, jednak nic nie wiem o zbliżających się nowościach.

CL: Jaką widzisz przyszłość dla Grup dyskusyjnych Google Webmaster Tools? Czy chcesz przebić popularnością forum.optymalzacja.com ? ;) Czy widzisz jakieś zagrożenie w nowym serwisie otwartym na polskim rynku – Pomoc Google? Jest tam także dział „Wyszukiwarki”…

KS: Interesujące pytanie :-) Nie zamierzam konkurować z forum.optymalizacja.com. Jak wiesz kilka osób jest w znacznym stopniu aktywnych na obydwóch forach. Myślę jednak, że cele grupy oraz grona zainteresowanych różnią się nieco. Na forum Grupy Google dla Webmastwerów można spotkać raczej mniej zaawansowanych webmasterów szukających pierwszej pomocy oraz zgłaszających problemy, z którymi się spotkali, używając narzędzi Google. Pomoc Google to nowy, bardzo interesujący serwis. Miałem okazję obserwować jego rozwój przez kilka miesięcy i sądzę, że ostateczny rezultat jest bardzo obiecujący. Nie mówiąc o samym fakcie, że globalny Beta test jest przeprowadzany właśnie w języku polskim! Przyszłości Pomocy Google i Grupy Pomocy dla Webmasterów nie widzę w kategoriach konkurencji, a raczej koegzystencji, a może nawet połączenia obu platform jednego dnia. Każdemu zainteresowanemu tematem polecam uważnie śledzić wiadomości branżowe.

CL: – W którym kierunku według Ciebie będzie podążać SEO, co czeka nas za rok?

KS: Nie próbuję domyślać się, jakie kreatywne pomysły SEO mogą mieć. Jest to bardzo prężnie rozwijająca się branża i ciekawe rzeczy dzieją się codziennie. Jedyne czego jestem pewien to, że będzie interesująco

CL: – Jak oceniasz rozwój branży SEO w Polsce i świadomość polskich firm w tym zakresie, szczególnie dużych podmiotów e-commerce?

KS: Cieszę się, że o to pytasz. Podobnie jak u europejskich sąsiadów, na przykład w Niemczech czy w Czechach, w Polsce również powoli budzi się świadomość o SEO w dużych korporacjach. Na SMX w Monachium to wrażenie potwierdzali pracownicy agencji internetowych. Jeszcze nie jesteśmy na tym etapie, na którym chcielibyśmy być, ale rozwój jest pozytywny.

Jeżeli chodzi o rozwój SEO – Polska jest rozwijającym się rynkiem, bardzo szybko zmniejszającym dystans do sąsiadów.

CL: – Czy może dojść do takiej sytuacji, że wszystkie większe ecommercy będą miały optymalizację pod kątem SEO na zbliżonym poziomie i konkurencja sprowadzi się do technik na pograniczu spamu lub link-baitingu?

KS: Jest to spekulacja i nie odważę się prognozować, jaka będzie sytuacja. Z tego co widziałem na różnych rynkach przez ostatnie parę lat, wnioskuję, że nie należy oczekiwać zastoju w tej branży. Jest wiele bardzo inteligentnych, kreatywnych ludzi, którzy bez przerwy ulepszają swoje strony i wątpię, że kiedykolwiek przestaną to robić. Moim zdaniem ani żadne podejrzane metody, ani link-baiting nie będą końcem ewolucji, której będziemy świadkami.

Podczas dodatkowej rozmowy telefonicznej Guglarz udzielił nam jeszcze kilku innych informacji:

Guglarz prosił aby polscy webmasterzy zrozumieli że linki prowadzące do witryny a linki zliczane przez Google przekazujące Page Rank i mające wpływ na pozycje to dwie diametralnie różne sprawy.

Delikatnie podpytaliśmy także Kacpra o ostatnie filtry, i w jego opinii nie ma mowy o żadnym celowym, świadomym działaniu Google.

Na koniec pochwalę się przesyłką z kolejnym prezentem od Google, który dotarł jakieś 2 miesiące temu:

Paczka od Google Przesylka pocztowa od Google Pendrive prezent od Google Pozdrowienia od Guglarza

Tym razem Guglarz podesłał bluzę oraz pendrive. Dzięki.

czytaj także

Większość kont w Google Analytics jest źle skonfigurowanych – wywiad z Maciejem Lewińskim

Cezary Lech

O autorze

Cezary Lech

Współzałożyciel sprawny.marketing i obecnie Doradca Zarządu sprawny.marketing. Marketingiem internetowym zajmuje się od 2005 roku. Autor wielu a...

zobacz więcej artykułów >>

Zostaw komentarz

  1. Redakcja

    Przypominamy, że wielkimi krokami zbliża się konferencja I ♥ Marketing & Technology, która odbędzie się już 16–18 kwietnia 2024 roku oraz organizowane przez nas 33 szkolenia z zakresu marketingu.

    Jeśli chcesz być zawsze na bieżąco, zamów prenumeratę magazynu sprawny.marketing!

    Z kolei jeśli chcesz mieć dostęp do całej wiedzy sprawny.marketing w jednym miejscu, subskrybuj platformę premium.sprawny.marketing.

  2. rycerz-netu

    Pozwolę sobie zacytować: „Oczywiście każdy webmaster może budować strony tak, jak mu się podoba i linkować w taki sposób, jaki mu opowiada.” I to dla mnie jest cała odpowiedź na ten wywiad.

    Nie sądzę, aby Pan Guglarz odpowiadał za jakieś seo katastrofy, jest bardzo dobry w gadaniu, ale co z tego? Myślicie naprawdę, że ma prawo do wprowadzania jakichś zmian do algorytmu? Conajwyżej do ręcznego wycinania spamu…

  3. Brawo Czarek za wywiad. Szkoda, że z Grupą Google dla Webmasterów, z pomocą pewnych osób, stało się to, co się stało :-/ Przez co, postowania tam ludziom się odechciało :(

  4. pseudo guglarz

    Wcale nie udzielilem tego wywiadu! Co za syf. Najgorszy serwis w poslkeij sieci wysysa z palca wywiady i sieje kalamstow, jakoby to bylo mega eksluzywne. czy powazny serwis robi dwa akapity wstepu o tym, jak to super-mega-eksluzywny jest ten wywiad?

    zenada, syf, kila, brud, obciach

  5. Dobry wywiad, szkoda ze forum AdSense oficjalne jest zaspamowane, ale to zupelnie inna kwestia.

    Naprawde ciekawy wywiad :)

  6. Lubie te odpowiedzi polityczne pracowników google. A gdzie pytanie, jak się dostać do tego teamu lub jak dostać taki fajny gadżet od Google. Wywiad fajny, uświadomiłem sobie, że jedną aktualizacją engine mojego serwisu wyzerowałem sobie PR ;D. Czas okaże, czy to prawda co tutaj napisał Guglarz.

  7. Fantastyczny artykuł, jeden z bardziej wartościowych w tym roku. Zawiodły mnie tylko słodko wymijające odpowiedzi, ale cóż zrobić – niektóre niuanse działania samochodu lepiej zna mechanik, niż inżynier. ;-)

  8. Paweł Zinkiewicz

    Świetny artykuł, przeczytałem od deski do deski jak tylko wyskoczył w greaderze (co nie zdarza się za często ;) ). Oby więcej takich exclusivów.

  9. Do autora:
    „Ekskluzywny” to znaczy m.in. luksusowy. Używasz angielskiej kalki – ekskluzywny = jedyny, wyłączny (exclusive). To takie małe faux pas.

  10. Google = goolag

  11. Cypherq

    „pod kontem” – Chryste, pod KĄTEM!

  12. Najciekawsze to wykrywanie platnych linkow, linkowanie tematyczne nie zliczanie kazdego linku jak leci :-) Jeżu poprawiaj dopalacza! ;D

  13. Cezary Lech

    Dzięki za pochwały… Należą się one jednak przede wszystkim Kasprowi który sporo się napracował nad przygotowaniem tego wywiadu. Jeszcze raz dzięki.

    @guglarz
    Zły Sir Nimek ? ;)

    @Cypherg
    Dzięki za zwrócenie uwagi… Poprawione.

  14. Jak pozycjonować

    Ciekawy artykuł i nawet troszkę więcej praktycznych informacji zostało ujawnionych, niż jak to bywa zazwyczaj :)

  15. Heh, akurat się „zgraliśmy” z wywiadami… ;-)

    A sam wywiad długi i ciekawy, ale… Nie na darmo Pan Matt C., „szef” GSQT ma taki pseudonim, jaki ma. Myślę, że śmiało ten pseudonim można rozciągnąć na jego polskiego odpowiednika.

  16. Wiele osób w komentarzach uważa wywiad za ciekawy… Szczerze mówiąc nie mam pojęcia dlaczego… Niektóre pytania, owszem, były ciekawe, ale odpowiedzi… bardzo wymijające, żadnych konkretów…

  17. pseudo guglarz

    To nie jest mój wywiad, pozwe Was do sądu!
    Obiecuje, za tydzień ten blog zniknie z wyników Goolge.

  18. yeah! gratuluje, super wywiad
    pozdr
    bmx

  19. Dla mnie to nie jest wywiad. To jest publiczna demonstracja zmian. Dotychczas wszystko było ściśle tajne/poufne jak w archiwach ZSRR.
    W Google nic nie dzieje sie przypadkowo.
    Ustalono że czas pokazać ludzkie oblicze machiny, czas stworzyć kontakt z webmasterami/ludźmi na innej płaszczyźnie.
    Nareszcie się doczekaliśmy.

  20. przyciemnianie szyb

    no wywiad, a raczej potężny artykuł dla ludzi z dziedziny SEO i webmasterów bardzo ciekawy i przydatny oby wiecej takich

  21. Mastermind

    najwazniejsze, ze facet nie siedzi w cieniu. Pokazal twarz, pomogl ile mogl i to sie liczy. Dzieki za ciekawy art. Pozdrawiam i tak trzymac.

  22. Wywiad dobry. Tylko trzeba pamiętać, że robiąc coś (np: likwidacja systemów wymiany linków) można zaszkodzić bardziej niż ulepszyć wyniki wyszukiwań. Kaspar dzięki ;)

  23. Pytania, które były zadawane w stronę Góglarza rozbawiły go z pewnością, a co do wymigiwania, masło maślane jakie pytania taka odpowiedź xD. Czemu nie padło pytanie np. prace nad personalizacja, google chrom’e chce wiedzieć o nas jak najwięcej, czemu, może to ma związek. Wywiad jak dla mnie nic nowego :)
    pozdrawiam.

  24. Goolczas

    Wywiad nie wnosi nic nowego Grejf, ale które wywiady z pracownikami Google dają jakieś konkrety? Jak zwykle, pozycjonerzy wyszukują się jakiś celowych, złożonych działań, tricków itp. A Google trzyma się swego – róbcie dobre strony, a będzie ok.

    do Guglarza, tego z komentarzy – pewnie zbierzność nicków chłopie, no chyba że ten koleś na zdjęciu powyżej to właśnie ty, to inna sprawa hehehe

  25. Artweb-Media

    Gdyby Google chciało przekazać coś nowego, to by to zrobili oficjalnie – na blogu. Pracownik mówi tyle, ile może. Nigdy nie oczekuję, że się dowiem rewelacji z takiego wywiadu ale przeczytałem i przypomniałem sobie parę szczegółów, które gdzieś się zawieruszyły w natłoku informacji.

  26. Jan Fecko

    OK
    a jaka jest odpowiedź na pytanie:
    „Czy faktem jest, że w momencie gdy mamy dwa linki prowadzące do dokładnie tego samego adresu i w kodzie strony pierwszy z nich będzie oznaczony atrybutem nofollow, a drugi będzie bez tego atrybutu, to Google nie podąży za żadnym z tych linków? „

  27. Lemarpol

    Super wywiad, tylko szkoda ,że mało konkretów. Czekam na następny wywiad z pracownikami Googla :)

  28. Maciej Kopyto

    Ciekawy artykuł. Dużo informacji, mało szczegółów, ale zawsze można się czegoś dowiedzieć od osoby, która ma dostęp do niewątpliwie cennych dla Webmasterów informacji. Oby więcej takich postów.

  29. nDragon

    no tak, wywiad długi ale jak ktoś już napisał: pracownik mówi tyle ile może, czyli bajki o white seo. Jeśli mamy słabo obstawione frazy – samo linkowanie wewnętrzne da radę, z małym zapleczem. Ale powodzenia na pozostałe frazy :) swoją droga bardzo mnie interesują algorytmy wykrywania płatnych linków. Miliony Chińczyków? :) a kto ich uczy polskiego? Gdzie drwa rąbią tam wióry lecą. Pewnego dnia tak zoptymalizują wyniki wyszukiwania, że tylko strony z site:google.com pozostaną :)

  30. nDragon

    albo Chrome zbierze o nas tyle informacji, że nie będzie sensu zadawać pytania, bo google na nie odpowie zanim je zadamy i nawet wyśle nasze dane do sklepu, żeby sprzedano nam to, czego jeszcze przed chwilą nie chieliśmy. Parafrazując: zamiast gazety – google, zamiast telewizji – google, strach otworzyć konserwę. Wielki Brat jest wśród nas i sami mu dajemy siebie jak na tacy.

  31. Udany wywiad. Cieszy fakt, iż Google staje się coraz bardziej otwarte również dla polskich użytkowników.

  32. nDragon masz rację… a Wszyscy tu o nowollow i 301 ;-) lol, pozdrawiam góglarza jak go spotkam mam pamięć do twarzy, zaproszę go na vódkę ;), dużo vódki… wie dużo każdy pracownik wie o swojej firmie najwięcej…

  33. Troszkę za dożo o ideach a za mało o praktyce. Przydało by się więcej szczegółowych informacji (na temat oczywiście white SEO).

  34. Adder White SEO jest niezmienne w sumie i wiadome od …, ta rozmowa obtarła się o linkowanie techniki pozycjonowania czyli dla Guglarza „śmieceniem”, sam się poprawił, że „śmiecenie” nie jest równe „śmieceniu w, ze tak to ujmę extra hotelu” więc to wiadome i powiedział to jest proste jak metr sznurka. Świat Google chcę wprowadzić kulturę społeczności SEO jaką propaguje od dawien dawna Matt. Nie są w stanie tego ogarnąć i pokazują nam droge „róbcie dobre strony i bedzie OK” i tak zawsze bylo, ale tej ciemnej strony nam nie przedstawią jaka jest granica lub kto ja ogarnia, wiec testować ;-) i dzielic sie z innymi.

    pozdrawiam.

  35. drzwi szklane

    Ciekawy wywiad, ale malo szczegółów. Czemu tak mało Kolega z Googla powiedzial o White Seo ? Czekamy na następny wywiad i wiecej szczegółów.

  36. jafajfer

    Dla mnie wywiad jest ok – gratuluję Guglarzowi, mądry facet.

  37. SEO 123.45

    smieszne pytanie

    „Czy może dojść do takiej sytuacji, że wszystkie większe ecommercy będą miały optymalizację pod kątem SEO na zbliżonym poziomie i konkurencja sprowadzi się do technik na pograniczu spamu lub link-baitingu?”

    No bo jest tylko optymizacyja, tresci to chyba nie ma (jak i w tym cytacie)

  38. Ja się przyczepię do tytułu. Proszę zachować powagę i szanować język polski. „Ekskluzywny wywiad”. No co to ma znaczyć? Bezsensowne zapożyczenie, które często, jak w tym przypadku, jest źle interpretowane. To nie to samo co „exclusive interviev”. Prawidłowe tłumaczenie to bardziej „wywiad na wyłączność”. Ekskluzywny to znaczy, prestiżowy, luksusowy, dla wybranych.
    Rażą mnie takie kwiatki.
    Poza tym wywiad niewiele wnosi.

  39. To może ja też poproszę jeden pendrive :/

  40. Jan Resicki

    I co się dzieje.Systemy linków pójdą w niepamięć.
    Kto normalny teraz będzie ryzykował pozycjonowanie systemem linków klienta firmowego.Pewnie ryzykantów będzie wielu.A potem będą się tłumaczyć czemu strona wyleciała z wyników
    Straszna obrona na forum Pio się zrobiła.
    Koledzy od Swli strasznie się denerwują robią wszystko żeby uspokoić ludzi ja się im nie dziwię ich pieniądze się kruszą.
    Pozycjonowanie zdrożeje i tyle.
    Kiepski wywiad.
    Pan Kaspar to ma nie wesołą pracę.On kontra 15000 pozycjonerów na PIO.Ciekaw jestem ile zarabia?
    Bo to strasznie ciężka walka z takim tłumem.

  41. cytuje „forum graczy linkujące do sklepu z sukniami ślubnymi w Warszawie oraz do sieci hoteli all-inclusive w południowej Azji – w tym przypadku jest raczej mało prawdopodobne, że linki zostały nadane z myślą o użytkownikach”
    A kto powiedzial ze na forum graczy nikt nie mysli o slubie oraz nie ma w planach egzotycznego wyjazdu??
    Smieszy mnie brak wyobrazni niektorych osob.
    Zgadzam sie z poprzednikami ze wywiad niewiele wnosi a pan guglarz niczego nowego nie powiedzial- generalnie – oczekiwalem wyzszego poziomu a tu strata czasu.

  42. ciekawski

    Kolejny tekst googlarza odbiegający od rzeczywistości.

    Promowanie niezduplikowanychh treści powinno być jak najbardziej premiowane ale z tego co obserwuje walka google z duplikatami przynosi odwrotne efekty do zamierzonych.

    Jest wiele serwisów opierających się na zduplikowanej treści ale serwisów pod zwykłego usera a nie w celu podniesienia pozycji innego serwisu.

    Programy partnerskie sklepów, serwisy informacyjne czy chociażby ładne, zadbane katalogi stron promujące inne serwisy ostatnio dostają dość mocno przez walkę google z duplikatami. Także jak widzę mój blog z którego sobie kilku spamerów upodobało kradzież tekstów z kanałów rss poleciał dość znacznie. Google jak zauważyłem promuje już istniejące serwisy na których występują duplikaty jak np serwisy prasowe korzystające z tekstów PAP czy też wspomniane sklepu partnerskie. Tak odnośnie sklepów esc. Sklep roczny dość popularny z ładną zmienioną szatą graficzną dopracowany pod klienta – po ostatnim update pr poleciał mu z pr3 do pr0 dodatkowo ilość stron została znacznie wyindeksowana z około 17 000 do niecałych 300 podstron co oczywiście spowodowało spadki odwiedzin na mniej popularne zapytania do podstron z asortymentem. Tylko jak widziałem kilka sklepów stworzonych pod zaplecze z niezmienioną templatką i zainstalowanymi swlami ma dość wysoki pagerank i kilkadziesiąt tys poindeksowanego site. To samo widuję z niektórymi portalami informacyjnymi jakie miałem w zwyczaju odwiedzać czy też katalogami stron i blogami.

    Gdzie tu sens i jakakolwiek logika ? Czy ze względu na spamerów google przestało się liczyć z normalnymi stronami ? To jakaś paranoja już.

    Zauważyłem też w ostatnim czasie dość znaczne pogorszenie wyników wyszukiwania i tam gdzie w top były może i pozycjonowane sztucznie strony ale wartościowe coraz częściej znajduje podstrony wikipedii i jakieś śmieci czyli to co mnie nie interesuje.

    Nic może zwalczane katalogi, te zadbane będa tu lepszym źródłem wyszukiwanych witryn ? nic zobaczymy.

  43. Bardzo ciekawe, dzieki

  44. Domarecka

    Dla mnie bomba. Bardzo wartościowy artykuł wyjaśniający wiele o seo, przeczytałam w całości i na pewno wiele z tego wykorzystam w praktyce.

  45. Fajnie, że niekturzy moga i potrafia przekazać wielką wiedze dla innych.

  46. Guglarz to człowiek który spełnił swoje mażenia jak chlopaki w filmie „haker”.
    CO z tego że wywalil wszystkie katalogi ale przynajmniej wyszukiwarka google jest naprawde dobra a wyniki zawsze będą szczere.
    Zastanawia mnie czy to, że wszyscy pozycjonujacy strone sa zalogowania w narzedziach google to oni moga kontrolowac kto sie pozycjonuje a kto idzie do gory naturalnie.

  47. Szkoda, że nie można po znajomości troszke podnieść polskie stronki w wyszukiwarce google… hihi Pozdrowienia dla Googlarza!

  48. Heissner

    Ciekawe czy google będzie zakładało filtry na strony które korzystają z artykułów WP. Ja mysle, że z wielką pompą będzie to niebawem sie działo.

  49. Fajnie, że jest ta w google ktoś kto nosi polskie nazwisko i ma coś do powiedzenia.

  50. architektura krajobrazu

    Czy w Polsce google jest jakoś oficjalnie?

  51. Chyba nie ma.

  52. Narzędzia ogrodnicze

    Myśle, że google nigdy nie wymyśli niczego co by całkowicie zablokowało pozycjonowanie. Zawsze da się coś zrobić, aby stronka była w czołówce. Oczywiście google jest najtrudniejsze ze wszystkich wyszukiwarek.

  53. Bardzo interesujący wywiad. Uważam, że Google powinno dążyć właśnie w tym kierunku – wiarygodne wyniki wyszukiwań.

  54. o takiej pracy to można pomarzyć:)

  55. taka praca to fajna sprawa.

  56. Doładnie, a myślisz że Google coś uchyli ? tylko masło maślane ;]tego można było się spodziewać.
    Pozdrawiam

  57. EE tam jaki to wywiad z Google. Oni mają nas w czterech literach.

  58. Przy okazji pozdrawiam Guglarza i cały zespół Ares :)

  59. To jest naprawdę prawdziwa dobra robota.

  60. Praca jak praca, ale ciekawa :)

  61. Metin2 Pvp

    o takiej pracy to można pomarzyć:)

  62. Jedna zasada – chcesz się liczyć w TOP, nie czytaj wywiadów z Guglarzami:)

  63. Plxrcmxx

    kids cowgirl hat,

  64. Ciągle wychodzą nowe filtry google, trzeba się z tym liczyć.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Wpisz imię
Napisz komentarz