Napisz do nas

Zapraszamy na 19 szkoleń z e-marketingu i konferencję I ♥ Marketing.

19 Szkoleń i I ♥ Marketing

Napisz do nas
0-naglowek-cytat

Nowy algorytm antyspamowy Google; polskie wyniki wśród najbardziej zaspamowanych!

Google zapowiedział dziś wdrożenie dużej zmiany w algorytmie, której celem ma być eliminacja z wyników wyszukiwania witryn słabej jakości. Firma nie podaje żadnych kryteriów rozpoznawania owej „złej jakości”, chociaż podaje kilka przykładów witryn, które ucierpią. Przy okazji po raz kolejny okazało się, że Google uważa polskie wyniki za wyjątkowo zaspamowane – zostały wymienione jako te, w których zmiana algorytmu dotknie największą część fraz (5% vs ok. 3% dla wyników angielskich, niemieckich, chińskich i arabskich). Zmiana algorytmu nastąpi „w najbliższych dniach”


Z wypowiedzi Matta Cuttsa wynika, że anonsowana dziś zmiana algorytmu jest tą, którą Google zapowiadał 5 tygodni temu; wówczas zapowiadano, że zmiana wymierzona jest w witryny „przeoptymalizowane”. Określenie to spotkało się ze słuszną krytyką branży (bo sugerowało, że nawet zalecane przez Google metody mogą skończyć się karą, jeśli zostaną użyte w zbyt dużej liczbie/natężeniu). Teraz Cutts wycofuje się z tego określenia, zaznaczając, że zmiana wymierzona jest w spam, a nie w pozycjonerów stosujących się do Wskazówek.

Jakie dokładnie wykroczenia będą karane? Google nie chce podawać konkretów, tłumacząc wprost przyczyny:

Nie możemy szczegółowo opisać zasad działania nowego algorytmu, aby nie ułatwiać zadania osobom, które chcą sztucznie wpływać na wyniki wyszukiwania bez względu na potrzeby użytkowników.

Co w takim razie firma zaleca począć pozycjonerom? Jak zwykle: trzymać się „Wytycznych dla Webmasterów”, tworzyć witryny z myślą o użytkownikach (a nie algorytmach), a czas poświęcany dotychczas na webspamerskie sztuczki poświęcić na tworzenie bogatszej treści. Jednocześnie Google wymienia dosyć oczywiste przykłady witryn, które z pewnością zostaną ukarane. Chodzi o witryny:

  • stosujące upychanie słów kluczowych,
  • zawierające treści wygenerowane automatycznie przy pomocy różnego typu mieszarek i inne teksty nieniosące wartości dla użytkownika. Google wymienia tu witrynę zawierającą nonsensowny tekst i linki wychodzące niezwiązane tematycznie z treścią witryny

Kiedy Cutts zapowiadał zmianę algorytmu 5 tygodni temu, także wymieniał faszerowanie witryny słowami kluczowymi, ale również „zbyt wiele przypadków wzajemnego linkowania” czy „inne cechy odróżniające spośród standardowych witryn”.

Firma sugeruje, że nowy algorytm nie będzie dawał zwieść się pozorom:

Witryny, których będzie dotyczyć ta zmiana mogą na pierwszy rzut oka nie być rozpoznawalne jako spamerskie, wymaga to głębszej analizy i ekspertyzy, jednak łączy je jedno: te witryny stosują znacznie więcej niż metody white hat.

Firma zestawia też porównanie wpływu dzisiejszej zmiany z wpływem na wyniki odciskanym przez Pandę: jeśli pierwsza wersja Pandy miała wpływać w wynikach anglojęzycznych na 12% fraz, tak obecna zmiana wpłynie w wynikach anglojęzycznych na 3,1% wyników. Podobnie sprawy będą się miały w wynikach niemieckich, chińskich, arabskich. Firma zastrzega jednak, że w bardziej zaspamowanych wynikach odsetek dotniętych zmianą fraz będzie większy, i wymienia jako przykład wyniki polskie, gdzie zmiana dotknąć ma 5% fraz. Taka informacja o wyjątkowo zaspamowanych wynikach znalazła się na głównym, anglojęzycznym blogu Google:

1 polskie wyniki wyjatkowo zaspamowane

Wiadomość ta została przekopiowana przez liczne serwisy branżowe (m.in. Search Engine Land), więc „sława” polskich pozycjonerów rozprzestrzenia się właśnie po całym internecie ;-):

2 sel polish 5 percent

***

Zapowiedziane dzisiaj zmiany w algorytmie zostaną szczegółowo omówione przez Kaspara Szymańskiego z Google Search Quality Team podczas panelu dyskusyjnego na majowej konferencji SearchMarketingDay.com. Pytania będzie można zadawać Kasparowi podczas panelu, a także w kuluarach! Zarejestruj się na konferencję już teraz!

sprawnymarketing

Maciej Janas

Od 2004 w poznańskich agencjach interaktywnych (UX, copy), od lutego 2010 do grudnia 2012 redaktor serwisu SprawnyMarketing.pl. Lubi tropić i opisywać trendy w biznesie internetowym, interesuje się interakcjami technologii z człowiekiem i społeczeństwem oraz współczesną polszczyzną. Google+



    • Sylwek (SukcesAukcjonera.pl)

      szczegolowo czyli dokladnie tyle co napisal matt.

    • Hehe, szczegółowo… musiałbym Kasa znać od wczoraj ;)))

    • zaloze sie ze nowy algorytm to zaden algorytm czytajacy strony, a sprawdzajacy co robia na nich odwiedzajacy (albo m. gieszanka tego i tego)oogle ma juz mnostwo ku temu narzedzi (analytics, google+). jesli odwiedzajacy szybko opuszczaja witryne lub jej nie polecaja, spada w rankingu.

      nawet jesli teraz sie myle, kwestia czasu jest gdy tak wlasnie google zacznie rankingowac strony

    • @konrad – założę się, że nie masz racji… chyba, że wg. ciebie precle i inne spamy nie mają odrzuceń i są ciekawsze dla czytelnika od normalnych stron/serwisów z wartościowym contentem ;)
      Google tak nie zacznie rankingować stron bo statystyki jeszcze łatwiej oszukać jak sztuczny linkbuilding :)
      Jak zawsze chodzi o AdWords i nie ma się co dziwić. Na moje oko powinni wprowadzić opłaty za top20. Reszte niech sobie działają algorytmy.

    • Lokaty bankowe

      Sylwek, Marek, Tomek 3 prorokow hehe. Nie idzcie na konfe, bedzie sie latwiej dopchac do Guglarza i przescignac was w wynikach! :-)

    • konradk - dev.wpzlecenia.pl

      @Tony, po pierwsze nie zrozumiales mojego wpisu. Ja wlasnie zalozylem, ze precle mają bardzo duży poziom odrzucen. I ze google obserwujac ze userzy szybko stamtad wychodzi, obnizy im ranking.

      Po drugie, przemysl jeszcze raz czy google powinno wprowadzic oplate za 20 pierwszych wynikow. Odpowiedz sobie na pytanie czy korzystalbys z takiej wysszukiwarki, w ktorej 2 pierwsze strony są na 100% kupione i nie muszą miec nic wspolnego z wpisywanym przez Ciebie zapytaniem, a bedziesz wiedzial czemu Google nigdy tego nie zrobi. Czyszczenie serpów z black hat seo jest jak najbardziej dobrą drogą dla wszystkich

    • Zauważyłem pewne zawirowania w pozycjach, zarówno na plus jak i na minus. Jeśli chodzi o mnie to ogólnie wyszło na jedno, ale trochę dało mi to do myślenia. Co ciekawe jedna strona, która była linkowana niemal idealnie naturalnie dostała dosyć poważnie po tyłku…

    • Marek artykuły do przedruku

      Ja ostatnio odnotowałem spore spadki, a strona pozycjonowana była całkiem naturalnie, nawet przez użytkowników. Spadek o 30% odwiedzin. Faktycznie obserwowanie zachowania użytkowników na stronie mogłoby być całkiem fajnym kryterium (oczywiście nie jedynym).

    • Krzysiek

      ktoś mądrzejszy napisał za granicą, że strony, które straciły swoje pozycje w wyszukiwarkach posiadały 65 lub więcej procent głównego anchor tekstu
      strony, które nic nie straciły lub wręcz zyskały na pozycjach posiadają bardziej naturalne linkowanie, strony te mają mniej niż 50% udziału w każdym anchorze
      http://www.sprawdzimy.eu/2012/05/dlaczego-znikla-strona-i-spadly-wyniki/

    Dodaj komentarz

    Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *