Marta Gryszko

Powody spadku ruchu z wyszukiwarek (inne niż filtr/ban)

Zazwyczaj po zauważeniu znacznego spadku w pozycjach albo wyindeksowania strony, w pierwszej chwili na myśl przychodzi odpowiednio filtr lub ban. Dopiero po szczegółowym sprawdzeniu przyczyny tych zmian może się okazać, że to np. wynik błędu lub zmiany w algorytmie. W jakich przypadkach mamy zatem do czynienia z innymi powodami spadku ruchu z wyszukiwarki niż kara za naruszenie jej wskazówek jakościowych?

Czy to filtr?

Nałożenie filtra na stronę skutkuje poważnym spadkiem ruchu generowanego z Google, a zmiana ta widoczna jest dosłownie z dnia na dzień. Strona jest wtedy nadal zaindeksowana, jednak znalezienie jej przez wyszukiwarkę po wpisaniu nawet mało konkurencyjnych zapytań (w tym również fragmentów tekstów na stronie), okazuje się nie być łatwym zadaniem. W zależności od rodzaju filtra, jest to zazwyczaj spadek o kilkadziesiąt, a nawet kilkaset pozycji. To jednak nie jedyny powód tej niepokojącej zmiany. Innymi powodami mogą być:

  • zbyt słabe backlinki
    W celu utrzymania stabilności w pozycjach, niezbędna jest wystarczająca ilość linków odpowiedniej jakości. Jeśli jest ona zbyt mała, może to doprowadzić do znacznych wahań w pozycjach, w szczególności w przypadku stron o konkurencyjnej tematyce. W takim przypadku rozwiązaniem problemu jest zadbanie o wybór lepszych źródeł linków. Jeśli strona jest nowa, potrzebuje trochę czasu na stabilizację, więc również w jej przypadku można zauważać znaczne spadki i wzrosty w pozycjach.
  • zduplikowane linki
    Wyobraźmy sobie sytuację, w której na stronie zabłąkał się link prowadzący do adresu w formacie domena.pl/index.php i ze względu na brak odpowiednich przekierowań, strona główna jest dostępna pod 2 adresami:
    1 – domena.pl
    2 – domena.pl/index.php
    Do drugiego adresu prowadzi zaledwie kilka linków, a pierwszy jest pozycjonowany i zajmuje wysokie pozycje w wyszukiwarkach. Nawet jeśli przez kilka miesięcy bądź nawet lat Google nie widzi w tym problemu, w pewnym momencie może zdecydować, że wyświetli błędny adres do strony głównej. W związku z ilością linków prowadzących do adresu domena.pl/index.php, nie mamy szans na utrzymanie pozycji. Objawem takiej sytuacji jest spadek pozycji tylko na frazy, na które pozycjonowana jest strona główna. Pozostałe pozostają bez zmian. Aby strona wróciła na stare pozycje, wystarczy usunięcie nieprawidłowego linka ze strony i jego przekierowanie (301) na prawidłowy adres. Efekt może być widoczny nawet po kilku dniach.
  • dopisanie ukrytych linków
    Włamy na serwer lub wykorzystywanie błędów w popularnych skryptach są często wykorzystywane właśnie w celu dopisania na stronie ukrytych linków. Mogą one być widoczne dopiero po sprawdzeniu kodu strony albo – w przypadku cloakingu – kopii tekstowej Google. Wyszukiwarka ta potrafi reagować na takie sytuacje wyjątkowo szybko, nawet tuż po zaindeksowaniu takiej kopii. Na szczęście przywrócenie starych wyników może również odbyć się w ekspresowym tempie. Wystarczy usunięcie tych linków i wysłanie wniosku o ponowne rozpatrzenie strony, a przywrócenie starych pozycji może być widoczne nawet następnego dnia.
  • wykrycie wirusa na stronie
    Spadek pozycji może zostać spowodowany wykryciem wirusów na stronie i w takim przypadku w wynikach wyszukiwania przy danej stronie pojawia się informacja

    Ta witryna może wyrządzić szkody na Twoim komputerze.

    Szczegółowe informacje na ten temat, w tym również instrukcje dotyczące zgłaszania prośby o ocenę witryny, znajdują się w pomocy Google.

  • zmiany w algorytmie
    Może się okazać, że spadki w pozycjach są spowodowane zmianami w algorytmie, np. głośnym ostatnio MayDay update. W takim przypadku jedyne co można zrobić to obserwować i analizować większą ilość stron, a następnie nanosić zmiany w działaniach zarówno on-site, jak i off-site, które mają na celu dostosowanie się do nowego algorytmu.

Czy to ban?

Rozpoznanie bana jest łatwiejsze niż w przypadku filtra. Wystarczy wpisanie w Google komendy site:domena.pl, jednak nawet od tej reguły zdarzają się wyjątki. Pewność co do zbanowania strony da nam jedynie informacja o tym widoczna po zalogowaniu się do Narzędzi dla webmasterów, chociaż ta nie wyświetla się za każdym razem. Oto kilka przypadków, w których zmniejszenie lub wyzerowanie ilości podstron nie oznacza bana:

  • wpisanie błędnego zapytania do Google
    Jeśli strona zaindeksowana jest bez przedrostka „www”, a w zapytaniu on występuje, nie uzyskamy prawidłowych wyników, ponieważ żadna z podstron nie będzie mu odpowiadała. Innym przypadkiem jest wpisanie spacji po dwukropku.
  • nowa strona i różne DC
    Zmiany w ilości zaindeksowanych podstron mogą wynikać z łączenia się z innymi DC, a największe różnice związane z tym występują w przypadku nowych stron. Może się zdarzyć, że kolejnego dnia po zaindeksowaniu takiej strony, site znowu pokazuje 0.
  • blokada dostępu dla robotów
    Zdarza się, że dla niektórych podstron wymagany jest metatag noindex lub blokada w robots.txt. Modyfikacje plików zawierających te zapisy, zwłaszcza przez mało doświadczonych programistów, narażają serwis na błędy i przypadkową blokadę dostępu robotów do plików, które powinny być indeksowane. Dlatego też kiedy podstrony serwisu zaczynają znikać z indeksu, w pierwszej kolejności należy sprawdzić metatagi, plik robots.txt, nagłówki (Firebug pokazuje nagłówki po wybraniu zakładki „Sieć” tak jak to widać na poniższym obrazku) i widok strony dla Googlebota (w Narzędziach dla webmasterów można to sprawdzić w zakładce Laboratorium → Pobierz jako Googlebot).
    Sprawdzanie kodu stanu HTTP
  • długi okres niedostępności strony
    Problemy z serwerem, o ile są długotrwałe, mogą skutkować spadkiem ilości zaindeksowanych podstron. W skrajnych przypadkach nawet kilka dni może wystarczyć do tego, aby ze strony np. z kilkudziesięcioma podstronami, w indeksie została tylko strona główna. Nie jest to jednak regułą i często w indeksie można znaleźć domeny, które wygasły nawet kilka miesięcy wcześniej.

Podsumowanie

Podsumowując, w przypadku obaw o filtra należy w pierwszej kolejności sprawdzić:

  • czy strona ma wystarczająco dużo backlinków do utrzymania stabilnych pozycji;
  • czy na stronie nie występuje problem dostępności tej samej zawartości pod różnymi adresami, w szczególności jeśli chodzi o stronę główną;
  • czy kopia tekstowa Google nie zawiera ukrytych linków;
  • czy strona nie została zawirusowana;
  • czy spadek nie jest wynikiem zmian w algorytmie.

Mając obawy o zbanowanie strony, należy upewnić się:

  • czy zapytanie w Google jest prawidłowe, tzn. nie ma spacji po dwukropku i nie zawiera ona „www” gdy strona jest zaindeksowana w formacie bez tego przedrostka;
  • czy brak strony w wynikach wyszukiwania nie wynika z połączenia z DC, na którym nie ma jeszcze danych na jej temat;
  • czy robotom nie został zablokowany dostęp do strony;
  • czy strona nie została wyindeksowana w wyniku długiego braku jej dostępności.

Jeśli żaden z tych powodów nie pasuje do danej sytuacji, należy sprawdzić, czy strona jest na pewno zgodna ze wskazówkami dla webmasterów.

czytaj także

Certyfikat SSL – 7 ważnych kroków, jakie powinien wykonać każdy SEOwiec

Marta Gryszko

O autorze

Marta Gryszko

Związana z branżą SEO od 2005 r. Autorka SEO bloga, współtwórca narzędzi SeoStation.pl i Brandle.pl (Wake App Sp. z o.o.). Autorka kursu SE...

zobacz więcej artykułów >>

Zostaw komentarz

  1. Redakcja

    Przypominamy, że wielkimi krokami zbliża się konferencja I ♥ Marketing & Technology, która odbędzie się już 16–18 kwietnia 2024 roku oraz organizowane przez nas 33 szkolenia z zakresu marketingu.

    Jeśli chcesz być zawsze na bieżąco, zamów prenumeratę magazynu sprawny.marketing!

    Z kolei jeśli chcesz mieć dostęp do całej wiedzy sprawny.marketing w jednym miejscu, subskrybuj platformę premium.sprawny.marketing.

  2. Mariusz

    Jest jeszcze jeden przypadek, który warto podać. Mianowicie źle użyte rel="canonical" może doprowadzić do masowego wyindeksowania wielu podstron, co będzie także objawiało się spadkiem ruchu. Sprawa zaobserwowana u kilku webmasterów.

  3. Ok, Lexy a co z ostatnimi przykładami renomowanych stron, które zaliczyły znaczny spadek? Swistak.pl, Gwiazdor.pl jak te strony mają obserwować konkurencje i wprowadzać zmiany? Czy Gwiazdor ma zacząć patrzeć na katalog gazeta.pl i obniżyć swoją jakość aby odzyskać ponownie zaufanie google? Natomiast świstak na swoje kategorie jest poniżej spamów archiwizujących aukcje z allegro. :)

  4. Tomku, przede wszystkim proponowałabym analizować szczegółowo konkretne rozwiązania, bez ograniczania się do stwierdzenia, że taka czy inna strona jest słabsza np. od Twojego katalogu.

    Zwróć uwagę na to, czym wyróżnia się konkurencja, która po wprowadzeniu zmian nie spadła z top 10:
    – jakością treści,
    – lepszym sposobem prezentacji opisów, które nie są zbyt unikalne (w przypadku sklepów będą to opisy produktów od producentów),
    – lepszym profilem backlinków,
    – lepszymi rozwiązaniami linkowania wewnętrznego czy jeszcze czymś innym.

    Spójrz na podstrony z wpisami, na to czy oprócz często powielonych opisów stron mają też pewną otoczkę tworzącą tzw. wartość dodaną. Zwróć uwagę na to, w których sekcjach serwisu spadł ruch z wyszukiwarki , czy może spadek dotyczy całej strony.

    W przypadku zmian algorytmu trzeba być bardzo wyczulonym na szczegóły i analizować zarówno każdy z nich oddzielnie, jak i ich całokształt. To niestety nie jest łatwy temat, bo aby dostosować się do zmian, trzeba najpierw wiedzieć, jakich elementów dotyczą. Po prostu postaraj się znaleźć wspólny element dla kilku stron, które spadły i kilku tych, które utrzymują się na starych pozycjach.

  5. Analiza przypadku gwiazdora i swistaka to jest dobry przykład na osobny tekst.

    Dyskutowany też na forum google przypadek sklepu rossi.pl również jest bardzo dziwny bo bez wątpienia ten sklep jest przyjazny dla użytkownika i posiada wiele ciekawych rozwiązań. Oczywiście ma pewien problem z wewnętrznie zdublowaną treścią ale mimo to nie widzę powodów dlaczego sklep internetowy z unikalnym asortymentem na swoje produkty był zdecydowanie niżej niż porównywarki z których usług korzysta.

    Zgadzam się ,że temat jest trudny ale szukam już bardzo długo różnych cech wspólnych stron, które poleciały oraz tych, które po 2 czerwca zachowały swoje pozycje i ruch. No i niestety bardzo bardzo ciężko znaleźć analogie bo każdy kolejna analiza obala już wypracowane wnioski.

    Na webmasterworld toczy się cały czas dyskusja i niektórzy użytkownicy zauważyli ,że dotknięte w ciągu ostatnich tygodni wartościowe serwisy zaczynają wracać.

  6. typografia

    Ostrożności nigdy za wiele, Mi kiedyś zdarzyło się że został nałożony na mnie przez google ban z mojej winy. po prostu uruchomiłem dwie takie same strony. Skutki były opłakane, przez rok nie mogłem nic zaindeksować

  7. Tomku, w wolnej chwili poszukam tego tematu na forum Google i przyjrzę się temu. Sama na swoich stronach nie widzę podobnych zmian, więc nie mam konkretnych danych, na których mogłabym to sprawdzić.

    "Skutki były opłakane, przez rok nie mogłem nic zaindeksować"
    Nie zrobiłeś przekierowania 301 jak tylko dowiedziałeś się, co było powodem wyindeksowania jednej z domen?

    ps. Kolejną sytuacją, w której spada ruch, jest… przypadkowe usunięcie kodu Analyticsowego ;-) np. przy zmianie skórki WordPressowej albo przepinaniu nowej wersji serwisu.

  8. Mój klient od poprzedniej agencji (agencja z top5 agencji w USA), dostal w prezencie bledny plik robots.txt efekt to prawie 3 tyg spadkow w statystykach, poprzez wyindeksowanie tysiecy podstron w wyszukiwarkach.

    W ten sposob moja firma przejeła robote a duża agencja musiała odpuścić :)

  9. A jest jakiś prosty program w którym mozna sprawdzić czy strona ma filtr, bana teoretycznie mozna sprawdzić na mypagerange.

  10. Chciałbym dodać, że Google uznaje za stronę niebezpieczną także te nie zawirusowane, ale potencjalnie mające możliwość być zawirusowanymi. Niedawno dotknęło to serwisu przy jakim pracowałem. Miał on kilka skryptów, przy czym w jednym wykryto lukę bezpieczeństwa. Nie wiedziałem o tym do czasu, aż podczas wejścia na stronę mi ów komunikat nie wyskoczył. Strona była w porządku, nie siała nic w sieci. Po prostu znaleziono w skrypcie lukę i google prewencyjnie nas "skillowała". Nie było żadnego maila informującego, nawet z automatu. Po prostu obuchem w łeb. Zanim odkryliśmy w firmie dlaczego mamy problem, troszkę minęło, potem skrypt wywalono zastępując po jakimś czasie innym, ale te kilka godzin wystarczyło by wielu zaniepokojonych klientów dzwonić zaczęło z pytaniami: "Co się dzieje?" Tak więc od tamtego czasu mam średnie podejście do ich motta: "Don't be evil".

  11. Witajcie, miałem wirusa na stronie i mam potężny spadek ruchu. Zauważyłem to oczywiście w Google dla Webmasterów i usunąłem wszystkie pliki exe (choć wcześniej były one ok) z serwera. Później wysłałem do Google alert żeby ponownie sprawdzili (teraz już nie pokazuje się tam wykrzyknik) w języku angielskim z panelu GdW, że wszystko jest usunięto i teraz pytanie, długo będę musiał czekać aż wszystko wróci do normy?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Wpisz imię
Napisz komentarz