Cezary Lech

Kary i filtry w Google — przyczyny i formy nakładania kar za pozycjonowanie

Filtr, Ban, Sandbox, Paragraf 31, Duplicate Content — mówi to Wam coś? Pozycjonerom zapewne tak. Powyższe nazwy przedstawiają wachlarz represji, jakimi dysponuje wyszukiwarka Google podczas karania stron obecnych w jej indeksie za wszelkie nadużycia i niezgodności z regulaminem dla webmasterów. Przyczyny nakładania kar oraz ich formy opisujemy w poniższym artykule.

Ban, Sandbox, Paragraf 31 — nazwy znane każdemu pozycjonerowi. Wokół części z nich zbudowano już całe historie, opowiadania a nawet wiersze. Na ich temat zostały napisane tysiące postów, powstało także szereg teorii spiskowych.

Nazwy te są niczym niezidentyfikowane obiekty latające globalnego internetu, nigdy nie wiadomo w kogo uderzą i gdzie się pojawią. W czym tkwi ich siła oddziaływania? Dlaczego wywołują przerażenie w oczach tysięcy właścicieli stron? Jak wiadomo niewiedza wywołuje strach, dlatego też poniżej postaramy się opisać wszystkie znane nam filtry Google.

Jakby nie było pozycjonerów, nie byłoby kar, czyli kilka słów wyjaśnienia dla osób spoza branży

Głównymi winowajcami urozmaicania polskiego słownika wyrazów obcych z zakresu marketingu internetowego są osoby zajmujące się tzw. pozycjonowaniem stron internetowych czyli: Pozycjonerzy (SEO) i Marketerzy (SEM). Zawód pozycjonera stron internetowych pojawił się w kilka lat po starcie pierwszych globalnych wyszukiwarek internetowych. W głowach marketerów i webmasterów szybko pojawiło się pytanie: Zrobiliśmy stronę… Ale co dalej? Jak napędzić ruch? Jak sprzedać? Jak zarobić?

Odpowiedź nasunęła się sama wraz z nieuchronnym rozwojem i wzrostem popularności wyszukiwarek internetowych. Na polskim rynku odpowiedź na wyżej postawione pytania brzmi: GOOGLE! Poprzez aktywną promocję tylko w tej jednej wyszukiwarce można być pewnym, że nasz przekaz dotrze do lwiej części naszej grupy docelowej.

Szybko okazało się, że wysoka pozycja gwarantuje sprzedaż i kontakty handlowe. Wraz z pojawieniem się pieniędzy w internecie powstał nowy Błękitny Ocean, który stworzył nową płaszczyznę dla biznesu. Jak wiadomo, tam gdzie pieniądze, tam też pojawia się pokusa do nadużyć.
W ten sposób rozpoczęła się gra która nigdy nie będzie miała końca — pozycjonowanie stron internetowych. Gra, której często celem jest manipulacja wynikami Google.

Przyczyny, nazwy, formy kar

Google nie musi walczyć z white-SEO (osoby zajmujące się białym SEO używają technik, które nie naruszają wskazówek Google dla webmasterów). Problemem są: SPAMerzy i zwolennicy Adama Słodowego* w stylu:„Pozycjonowanie stron: zrób to sam”. Zdecydowana większość kar poniżej opisywanych dotyczy właśnie tych dwóch grup i sprawiedliwie czy nie ale to amatorzy i oszuści głównie dostają po łapach. Ci drudzy najczęściej ryzyko mają wliczone w swoje działania.

*Adam Słodowy to kultowa postać zeszłej epoki, w której to nie było YouTube, tylko Teleranek. Popularyzator majsterkowania – przypisek dla młodszych czytelników :)

Ban

Pierwszym i zarazem najbardziej popularnym stwierdzeniem używanym w odniesieniu do kar Google jest tzw. BAN. Najczęściej określenie zdecydowanie nadużywane i stosowane w złym kontekście. Dla wielu użytkowników ban jest także synonimem wszystkich kar Google, symbolem całego zła i najgorszą rzeczą jaka może się przytrafić domenie.

W praktyce ban jest faktycznie najsurowszą formą kary, należy jednak pamiętać że ban jest przyznawany bardzo rzadko w sytuacjach radykalnego naruszenia regulaminu wyszukiwarki.

Przyczyny nakładania bana:

  • Ukryty tekst
  • Ukryte linki
  • Za dziesiątki tys. subdomen
  • Doorway Page’s
  • Przekierowania
  • Cloaking
  • Strony stworzone tylko dla wyłudzenia pieniędzy (niektóre PP), MFA (Made For AdSense).

Ban nakładany jest tylko i wyłącznie za zawartość domeny, nigdy nie za linki przychodzące lub czynniki niezależne od webmastera.

Aby ściągnąć bana z domeny należy usunąć wszystkie elementy mogące wzbudzić wątpliwość redaktora a następnie skorzystać z formularza request for re-inclusion dostępnego m.in. w narzędziu Google SiteMaps. W przypadku świadomego usunięcia strony przez Google otrzymasz wówczas stosowną informację w panelu. Czas reakcji na request for re-inclusion od 1-2 miesięcy, niestety ale sprawdzone empirycznie.

Sandbox

Sandbox (z ang. piaskownica) to drugi w kolejności bardzo często nakładany filtr, który dla większości pozycjonerów stanowi największe zagrożenie. Sandbox jest bezpośrednio związany z czynnikiem o największym wpływie na pozycję strony. Chodzi oczywiście o linki prowadzące do witryny a konkretnie o ich anchor text.

Filtr polega na czasowym filtrowaniu i nie pokazywaniu strony www pod konkretną frazą/frazami czy słowem/słowom kluczowym w wynikach wyszukiwania. Kara jest najczęściej przyznawana młodym stronom, które są silnie pozycjonowane pod jedno słowo kluczowe. Aby uniknąć kary, należy nie przekraczać 50-70% linków z jednym anchor textem i umiarkowanie, rozsądnie linkować (rozkładać w czasie ilość linków). Granica ta nie jest oczywiście stała, czasami już jeden link z wartościowej strony może spowodować nałożenie kary.

Tzw. Google Bombing zostało ograniczone, dlatego m.in. zniknęła strona Leppera dla słowa „kretyn”. Być może jest to znak, że Google w końcu zaczęło porządki i coraz większe znaczenie w pozyskiwaniu linków dla pozycjonowania będzie miało to, czy ktoś w te linki w ogóle klika. Więcej informacji na blogu web navigatora.

Kara trwa od 3-12 miesięcy. W tym czasie Google nie bierze pod uwagę linków z określonym anchor textem i wrzuca je niczym ziarenka piasku do tzw. Sandboxa czyli piaskownicy, poczekalni dla młodych linków, które jeszcze nie są wiarygodne i nie zasłużyły na uznanie algorytmu.

Wychodzenie z filtra nie jest łatwe, przede wszystkim należy konsekwentnie linkować (szczególnie tam, gdzie istnieje prawdopodobieństwo kliknięcia w link), stopniowo zmniejszając udział filtrowanej frazy w anchorach linków i tak aż do skutku. Po wyjściu z filtra strona najczęściej wraca na te same lub jeszcze wyższe pozycje!

Paragraf 31

Paragraf 31 był już szeroko omawiany i komentowany na Sprawnym Marketingu. Należy jednak zaznaczyć, iż jest to najmłodszy filtr Google i po ostatnim Update PR efekty jego działania obserwujemy z nieco mniejszą intensywnością.

Więcej na temat Paragrafu 31:

Aging Delay

Obszerne wyjaśnienie Aging Delay można znaleźć w słowniku sloganu informatycznego:

Aging Delay — …zjawisko spotykane w wyszukiwarce internetowej Google polegające na tym, iż nowo utworzona strona internetowa pojawia się w wynikach Google bardzo wysoko przez kilka pierwszych tygodni od dodania (dzięki zjawisku Fresh Site Bonus (FSB)), po czym spada bardzo nisko lub znika całkowicie z wyników wyszukiwania. […] Strona ma już zazwyczaj wysoki wskaźnik PageRank i wszystko wskazuje na to, że powinna być wysoko ww wynikach. Jednak jakaś tajemnicza „łapa” trzyma ją tak, iż nie potrafi wybić się w górę. […]

Środowisko SEO upatruje w tym działaniu próbę zabezpieczenia się Google przed manipulowaniem wynikami i pozycjonowaniem nowych domen. Zazwyczaj bowiem to właśnie strony pozycjonowane ten problem dotyczy, a więc strony, które w początkowym okresie istnienia otrzymują nieproporcjonalnie dużą ilość linków do nich prowadzących. Aging delay według obserwacji trwa nawet do 7-8 miesięcy i nie dotyczy wszystkich stron. Jedynym zalecanym działaniem w przypadku wpadnięcia w Aging Delay jest po prostu czekanie…

Ze swojego komentarza dodam tylko, że zjawisko w Polsce występowało w bardzo ograniczonej skali i dotyczyło głównie zachodnich wyników wyszukiwań. Filtr ten traci zasadność w obliczu serwisów społecznościowych i całego trendu web 2.0, wiadomo bowiem, że młoda strona możne zanotować olbrzymi przyrost linków publikując jeden ciekawy film na YouTube.com. Tym samym wiek strony zmniejsza swoje znaczenie na rzecz ruchów użytkowników generowanych przez linki oraz ilości odwiedzin! Na tą chwilę filtr znacznie zmniejszył swoją czułość.

Duplicate Content

Duplicate Content jest to filtr przeciwdziałający indeksowaniu przez wyszukiwarkę powielonej treści. Najprawdopodobniej działanie mechanizmu wykrywającego jest bardzo proste i polega na zadawaniu do bazy zapytań dłuższych niż standardowy limit 8 słów. W przypadku dwóch bardzo zbieżnych zawartości strona, która zostanie później zaindeksowana zostaje usunięta z indexu lub przesunięta do Supplemental Index.

Przykład narzędzia detektującego powieloną treść: Copy Scape

Inne nienazwane filtry

Istnieje spora ilość filtrów które nigdy nie zostaną nazwane. Wynika to z tego iż większą część popełnianych przez nie „przestępstw” zaliczamy do czynów o niskiej szkodliwości SEO. Ich uciążliwość oraz wyrazistość jest na tyle niewielka że nie ma sensu ich nazywać a nawet w 100% potwierdzić ich istnienia.

Jeśli zastanawiałeś się kiedyś dlaczego Twoja witryna:
– notuje dziwne rotacje pozycji,
– doświadcza jednodniowych spadków,
– wypada z indeksu na kilka dni,
to wiedz, że najprawdopodobniej są za to odpowiedzialne właśnie te nigdy nie nazwane filtry.

Druga możliwość to awaria jednego z serwerów Google ( jest ich blisko 450 tys. ) a więc statystycznie, dziennie psuje się 4-5 serwerów.

Więcej na ten temat:

———————————————————————–

Aktualizacja (2012):  Google pracuje nad nową algorytmiczną karą – tym razem celem będą witryny „przeoptymalizowane” (org. „over-optimized”). Zdradził to podczas konferencji SXSW sam Matt Cutts, szef Search Quality Team w Google. Deklarowanym celem kary jest „wyrównanie szans”.

Jak tłumaczy Cutts, chodzi o to, by witryny gorszej jakości nie były w stanie „nadrobić” dystansu do lepszych za pomocą sztuczek pozycjonerskich. Wyższa jakość treści ma być doceniana w wynikach wyszukiwania, a czas webmasterów powinien być inwestowany właśnie w lepsze treści, a nie w „przeoptymalizowywanie” witryny.

Google rzadko (nigdy?) dotąd informował z wyprzedzeniem o zamiarach wprowadzenia zmian w algorytmie. Tym razem jest inaczej, chociaż Cutts nie zdradził absolutnie żadnych szczegółów dotyczących algorytmu. Trudno więc powiedzieć, jak w Google rozumieją „przeoptymalizowanie”, kto powinien obawiać się zmian i do jakiego stanu należałoby doprowadzić witrynę, żeby spać spokojnie. Cutts wymienił jedynie oczywistości: faszerowanie witryny słowami kluczowymi, zbyt wiele przypadków wzajemnego linkowania czy „inne cechy odróżniające spośród standardowych witryn”.

Cutts poświęcił nowym karom zaledwie chwilę, którą wypełniał głównie stwierdzeniami typu „chcemy uczynić Googlebota sprytniejszym”, „zależy nam na poprawianiu jakości wyników”, „nad zmianami pracuje kilku naszych inżynierów”.

Zapis audio fragmentu rozmowy, jaki Danny Sullivan z Search Engine Landu przeprowadził z Mattem Cuttsem znajduje się tutaj:

————————————————————–

Grafika w nagłówku autorstwa użytkownika Danilin z freedigitalphotos.net

czytaj także

Większość kont w Google Analytics jest źle skonfigurowanych – wywiad z Maciejem Lewińskim

Cezary Lech

O autorze

Cezary Lech

Współzałożyciel sprawny.marketing i obecnie Doradca Zarządu sprawny.marketing. Marketingiem internetowym zajmuje się od 2005 roku. Autor wielu a...

zobacz więcej artykułów >>

Zostaw komentarz

  1. Redakcja

    Przypominamy, że wielkimi krokami zbliża się konferencja I ♥ Marketing & Technology, która odbędzie się już 22–24 października 2024 roku oraz organizowane przez nas 33 szkolenia z zakresu marketingu.

    Jeśli chcesz być zawsze na bieżąco, zamów prenumeratę magazynu sprawny.marketing!

     

  2. >> Ban nakładany jest tylko i wyłącznie za zawartość domeny, nigdy nie za linki przychodzące lub czynniki niezależne od webmastera.

    A chcesz się założyć? ;-) Przeanalizuj mój blog a zobaczysz że wszystko jest tam zgodne 'z zasadami’.

  3. Szczepan Przybyło

    Cześć Cezary! Osobiście przywiązałbym troszeczkę większą wagę do Aging Delay. Spędziłem miesiąc śledząc to zjawisko i jeśli chodzi o Polskę z moich obserwacji wynika, iż zostało aktywowane dawno dawno temu. Mniejsza skala spowodowana jest mniejszą konkurencyjnością polskich fraz w porównaniu z zachodnimi.

  4. Cezary Lech

    MMP, rozwiń proszę…
    Napisz też czy korzystałeś z formularza request for re-inclusion ?

  5. Cezary Lech

    Nie znam przeszłości twojej domeny… mogła zostać ukarana za jedno z powyższych w przeszłości. Z webarchives nic takiego jednak nie wynika. Tak więc przedstaw proszę fakty przeczące mojej tezie ! Bo to że nie ma jej w indeksie o niczym nie świadczy.

    Jeśli jest to ban i jeśli jest dla Ciebie kłopotliwy to uważam że powinieneś skorzystać ze wspomnianego request for re-inclusion.

  6. Napisałeś że domena może zostać zbanowana jedynie za treść.

    Jak zapewne zauważyłeś domeny mastonmp.pl w Googl’eyu nie ma, więc prosiłem byś znalazł na tej domenie taką treść która jest niedozwolona.

    Oczywiście, że nie korzystałem z tego formularza.

  7. Na tej domenie nic się nie zmieniało od ponad roku a ban jest od 27/28 listopada.

    Jest to ban, ale wcale nie kłopotliwy. Przeskanuj linki do tej domeny to sam zauważysz że Twoje stwierdzenie jest nieprawdziwe :-)

  8. PS. Dodajcie jakieś nl2br do komentarzy bo nie da się sensownie dzielić tekstu.

  9. Tomek Wieczorek

    Za linki też jest BAN.

  10. Tomek Wieczorek

    Jezu drogi co ja wypisuje… pozno juz, nie zwracajcie na mnie uwagi :-)

    A Ty MMP za co BAN, zle sasiedztwo SPAMów?

  11. Cezary Lech

    MMP mówiąc szczerze to siedzę właśnie na Filipinach, nie mam tu zbyt mocnego łącza ani zbyt dużo czasu, tak więc byłbym wdzięczny gdybyś oszczędził mi dogłębnej analizy BL twojego serwisu. Przedstaw proszę swój przypadek w sposób przystępny dla Userów, tak żeby uzupełniał artykuł i wnosił dodatkową wartość dla czytelników. Może mamy do czynienia z wyjątkiem potwierdzającym regułę ? :)

  12. Ahh, no dobrze :) Wpisz do Google „super extra pozycjoner” i… wszystko jasne ;-)

  13. michał

    swietny artykuł czytam juz strone z 2h :)

  14. Marcin Deręgowski

    Wydaje mi się, że należy rozróżniać Sandbox i fitr.
    Filtr: to obniżenie pozycji na jedną lub kilka fraz, które były zbyt mocno promowane.
    Sanbox: to multi-filtr zostaje nałozony na domenę i praktycznie żadna fraza (może po za nazwa strony) nie pojawai się na oczekiwanych pozycjach w wynikach.

    Co do Aging Delay – może to byc już wcześniej opisane przezemnie zjawisko PIT-STOPU. Sytuacji w której domena przejstaej reagować na całkiem przyzwoite linkowanie. Dzieję się tak najczęściej kiedy strona była za mocno promowana i nie było szansy na utrzymanie tempa przyrostu linków. Co oczywiste najcześciej czeka to młoda domnenę, którą ktoś „atakuje” linkami, aż skończą mu się pomysły.

  15. Woe ktoś, czy w przypadku bana page rank od razu spada do 0 ? Czy dzieje się to dopiero przy rozdawaniu nowych pr?

  16. Dobre podsumowanie. Spotkaliście się lub próbowaliście napisać skrypcik automatycznie badający pozycję urla na wybrane frazy i co kluczowe – okresowo generujący stosowny raporcik?

  17. Cezary Lech

    W przypadku bana Page Rank spada do zera dopiero po Update PR. Co do skryptu sprawdzającego pozycje to zdecydowanie polecam http://SEO.net.pl

  18. Chciałbym zgłosić, że serwer vba.pl stosuje akceptację subdomen, np. costam.vba.pl, wp.vba.pl, interia.vba.pl, google.vba.pl i pewnie tysiące innych.

    Jeśli piszę nie na temat to przepraszam ale bulwersujący fakt zmusza mnie do podzielenia się tą informacją.

  19. Bardzo ładnie wszystko opisane Pozdrawiam autora :)

  20. panbaraban

    Dobry artykuł, dużo wyjasnia osobom o skromnym pojęciu na temat pozycjonowania i SEO.

  21. Google rozdaje bany na lewo i prawo, żeby utrudnić pozycjonerom pracę. Mogą sobie opowiadać, że są jakieś zasady czy reguły ale nie ma cudów, wszystkiego nie ujawnią a jak im strona nie spasuje to wylatuje, nawet nie będąc spamem. Tak samo jest z Adsense, coś komuś nie spasuje i leci ban. Don’t be evil to tylko hasło, google to korporacja jak każda inna, jak coś im przeszkadza w osiąganiu zysku to jeśli mogą będą zwalczać. Wracając do spamu w wynikach wyszukiwania – nie raz mi się zdarzyło znaleźć na czołowych pozycjach totalne śmieci, które nawet po zgłoszeniu tam siedzą.

  22. Witam właśnie wczoraj moja strona wypadła z wyszukiwarki na wszystkie słowa kluczowe. Najgorsze jest to że nie wiem dlaczego. BO Google nie informują nikogo i nigdy jakie są przyczyny nałożenia bana itp. Disgusting

  23. DudeDesign

    Cezary napisał, że PR w przypadku bana spada do zera dopiero po Update PR.

    To oczywiście nie jest prawdą. PR jaki widzimy co prawda spada po Update, ale to jest PR Toolbarowy. Google PR jest aktualizowany na bieżąco, ale wartość jaką widzimy jest odświeżana co jakiś czas (najczęściej 90-100 dni). W Toolbar widzimy tylko zapisany PR z dnego dnia i taki wynik jest przechowywany.
    Ale to nie prawda, że PR spada do 0 dopiero po update. Po prostu my to widzimy z opóźnieniem.
    Dowód – Narzędzia dla Webmasterów – tam można zobaczyć która z naszych podstron w ramach serwisu ma w danym MIESIĄCU najwyższy PR. To, że wartość jest pokazywana miesięcznie podważa PR z Toolbar, który jest odświeżany mniej więcej kwartalnie.

  24. Dzięki. Ciekawy artykuł.

  25. Czyli jeśli google, wykluczyło moją stronę z wyników wyszukiwań, to mam Sandbox, czy coś innego.

  26. Gry online

    Trzeba się będzie bardziej starać.

  27. Michał

    Z Google nie ma co zadzierać

  28. Zareklamowany

    Jak się umiejętnie zadrze, to korzyści również można niezłe czerpać, recepta: dobra nazwa domeny, ostre Black Hat i możemy domenę odsprzedać za całkiem spore pieniądze, jedynie o co musimy się martwić to aby któryś z pracowników Google nie zajrzał na stronę bo wtedy nie będzie już tak kolorowo. Wiele takich stron można znaleźć w sieci mało tego, strony te cały czas figurują w SERP'ach i mają się dobrze. Więc to jedynie łut szczęścia. Takie jest moje zdanie, chociaż jestem zwolennikiem White Hat ponieważ tylko tak mamy pewność że nasza praca nie pójdzie na marne. Wybór należy do was.

  29. d3Molay@gmail.com

    jedna z moich stron wpadła do Sandbox zmieniłem opis meta name=”Description”, strona wróciła na to samomo miejsce i zmniejszyłem ilość słów kluczowych do 20.
    Pozdrawiam

  30. czy za dodanie tysiecy backlinkow w krotkim czasie mozna dostac bana lub filtr ?
    czy grozi cos za masowe pingowanie tych backlinkow

  31. U mnie filtr lub sandbox został nałożony, pokazują się w wynikach różne podstrony serwisu ale nigdy strona główna. Usunąłem kłopotliwe linki oceniając je za pomocą majesticseo (trustrank) i teraz linkuje ręcznie i tworze zaplecza (adder i inne narzędzia odpadają – kiedyś nimi pozycjonowałem). Jak coś się uda to dam znać.

  32. Czekamy na kolejny update i kolejne fale nienaturalnych linków. To będzie bez końca…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Wpisz imię
Napisz komentarz