Zapraszamy na 23 szkoleń z e-marketingu i konferencję I ♥ Marketing oraz zakupu magazynu

19 Szkoleń i I ♥ Marketing oraz zakupu magazynu

Google Webmaster Tools: Duże zmiany w „Błędach indeksowania”

Wczoraj Google udostępnił w usłudze Google Webmaster Tools całkiem nowe raporty o błędach w indeksowaniu. Zmiany w tej jednej z najpopularniejszych zakładek w GWT są duże. Niestety – chociaż raporty zyskały znacznie na urodzie i funkcjonalności, zniknęły niektóre informacje. Co dokładnie się zmieniło?

Po pierwsze, raportowanie o błędach podzielono na dwie kategorie: błędy odnoszące się do poszczególnych URL-i oraz błędy odnoszące się do całej witryny (błędy „site-wide”).

Błędy odnoszące się do całej witryny były dotąd raportowane na poziomie wszystkich kolejnych URL-i. Chodzi o błędy takie jak problem z serwerem DNS, błąd pliku robots.txt i błędy połączenia z serwerem. Jak widać, powodowało to nie tylko wielokrotne powielanie komunikatu o błędzie po raportach dla kolejnych URL-i, ale też zaciemniało obraz sugerując błąd na poziomie konkretnej podstrony, tym bardziej, że ze względu na naturę raportowanych błędów site-wide Googlebot wcale nie miał do tych podstron dostępu. Raport błędów site-wide jest teraz bardzo skrócony:

1 bledy witryny

Jak widać powyżej, dopóki wszystko jest w porządku, Google nie zawraca webmasterowi głowy zbędnymi informacjami i ogranicza informowanie do krótkiej informacji „jest OK” w każdym z 3 obszarów (DNS, robots.txt, serwer). Bardziej szczegółowe informacje pojawiają się dopiero w razie wystąpienia błędów. Do tego dochodzi informacja o liczbie błędów w każdym z minionych 90 dni, o której szerzej napiszę poniżej.

Osobno raportowane są błędy na na poziomie pojedynczych podstron (URL-i). A więc Googlebot został skierowany do danej podstrony, dostał od DNS jej numer IP, poprawnie połączył się z serwerem, uzyskał dostęp i odczytał plik robots.txt, zażądał danej podstrony, a mimo wszystko coś później poszło nie tak. Tego typu błędy Google podzielił na kilka kategorii, przy czym osobne kategorie przygotowano dla treści indeksowanych przez Google News i treści mobilnych (CHTML/XHTML). Wśród kategorii znaleźć można:

  • Błąd serwera – kody błędów serii 5xx (np. błąd 503 Service Unavailable),
  • Miękkie 404 – URL-e rozpoznane jako zwracające użytkownikom komunikat o błędzie, nie oznakowane jednak kodem odpowiedzi HTTP 404 (zwykle takie strony zwracają kody 200 lub 301/302). Miękkie 404 to spory błąd, utrudnia bowiem Google’owi skierowanie użytkowników do właściwych podstron, może też prowadzić do zaindeksowania komunikatu błędu),
  • Dostęp zabroniony – podstrona zwraca kod odpowiedzi 401. Często taki kod towarzyszy podstronom z żądaniem logowania, co przecież nie jest błędem. Znalezienie takiego przypadku powinno skłonić cię do wykluczenia danego dokumentu w pliku robots.txt,
  • Nie znaleziono – najczęściej chodzi o podstrony zwracające kod odpowiedzi 404 lub 410,
  • Nie odwiedzono – najczęściej z uwagi na kody odpowiedzi 301 lub 302. Podstrony nie odwiedzono ze względu na zbyt liczne przekierowania lub pętlę przekierowań. Nie jest do końca jasne, co dokładnie musi się stać, by sytuacja została uznana za błąd i znalazła się na liście,
  • Inne – wszystkie inne rodzaje błędów, np. kody odpowiedzi 403.

Najważniejsza bodaj zmiana w nowym raporcie to mechanizm priorytetyzowania błędów. Do tej pory webmasterzy dużych witryn bywali zalewani dziesiątkami tysięcy a nawet setkami tysięcy błędów o najróżniejszej randze. W efekcie powódź drobiazgów (np. zawinionych przez witryny zewnętrzne, a więc i tak nienaprawialnych) przykrywała kilka/kilkadziesiąt najpoważniejszych błędów. Teraz każdemu błędowi przypisywana jest ranga (ważność) w skali 1-5. W specjalnym raporcie widzimy „tylko” tysiąc najważniejszych błędów.

2 priorytety bledow

Na jakiej podstawie przypisywane są priorytety? Google podaje tylko, że czynników jest „wiele”, a wśród nich:

  • możliwość naprawienia błędu przez webmastera,
  • obecność URL-a w sitemapie,
  • obfity ruch do URL-a,
  • duża liczba prowadzących do niego linków.

Webmaster może oznaczyć każdy z błędów jako „naprawiony”, dzięki czemu znika on z listy. Jeśli jednak błąd zostanie ponownie wykryty przy kolejnych odwiedzinach Googlebota, pojawi się on ponownie na liście:

3 oznaczanie naprawianie

Dobrym pomysłem jest zapytać Google’a, czy błąd został naprawiony także z jego punktu widzenia (zamiast czekać do następnego przecrawlowania witryny). Można to zrobić za pomocą funkcji „Pobierz jako Googlebot”. Warto jednak pamiętać o nałożonym przez Google limicie „pobrań” – 500 tygodniowo dla każdego konta – i używać tej funkcji z rozwagą.

Google pokazuje też wykres natężenia błędów obu typów (błędów witryny i błędów dla poszczególnych URL-i) w ciągu minionych 90 dni. Liczba błędów przypisana do danego dnia to prawdopodobnie liczba błędów, o których istnieniu Google wie, a nie liczba błędów znalezionych danego dnia. Jeśli ponowne crawlowanie witryny wykaże naprawienie/zniknięcie błędu, jest on usuwany z listy i przestaje się wliczać do sumy błędów.

Niestety, zmiany w zakładce „Błędy indeksowania” to nie tylko wymienione powyżej usprawnienia, ale też zniknięcie niektórych ważnych informacji. O tym, jakie to informacje piszemy na Forum.MaxROY.com.

[na podstawie: Google Webmaster Tools Revamps Crawl Errors, But Is It For The Better? + Crawl Errors: The Next Generation]

sprawnymarketing

Maciej Janas

Od 2004 w poznańskich agencjach interaktywnych (UX, copy), od lutego 2010 do grudnia 2012 redaktor serwisu SprawnyMarketing.pl. Lubi tropić i opisywać trendy w biznesie internetowym, interesuje się interakcjami technologii z człowiekiem i społeczeństwem oraz współczesną polszczyzną. Google+


  • Redakcja

    Przy okazji przypominamy o nowej grupie na Facebooku, w której odpowiadamy na szereg pytań. Dołącz do Twoja firma w Internecie i Social Media.

    Subskrybuj Sprawny.Marketing na Messengerze, dostaniesz informację o każdym nowym artykule lub materiale video

    Wielkimi krokami zbliża się także dwudniowa konferencja I ♥ Marketing & Social Media oraz organizowane przez nas 24 szkolenia z zakresu marketingu.

    Możesz też zamówić prenumeratę drukowanego magazynu sprawny.marketing


    • SEO Profi

      Coś szybciej ostatnio publikuję takie newsy :)

    • Maciej Janas

      Ale dość skrótowo i bezkrytycznie go potraktowałeś :-).

    • Karlosky

      @Sebastian

      Zgred i tak był jeszcze szybszy ;)

    • marcin

      Nowe narzędzie zmotywowało mnie do zrobienia kilku przekierowań :)

    • SEO Profi

      Czy skrótowy? Powiedziałbym, że bardziej zwięzły – osoby zajmujące się stronami powinny wiedzieć, jak odczytywać wykresy :)
      Z Zgred, fakt – nawet na G+ napisał mi, że tym razem był szybszy :)

    • SEO Profi

      Możecie wyłaczyć to powiadamianie o zapisaniu się do newslettera?
      Jeste jeszcze bardziej agresywne – ostatnio jak komentowałem nie wyświetliło mi się – a teraz i owszem. Uważam to już za za duże przegięcie. Jak ktoś nie chce, dlaczego ma mu to wyskakiwać cały czas??

    • Maciej Janas

      @ SEO Profi: tak, nasz koder ma to w kolejce zadań na jutro.

    • Mam pytanie dotyczące błędów indeksowania. Ostatnio w diagnostyce odnalazłam sporo tych błędów (ok 5 tysięcy) :/ Zostały ustawione przekierowania 301. Minął miesiąc a nadal nie zniknęły te poprawione. Musiałabym je chyba ręcznie oznaczyć jako dobre, co jest nierealne przy takiej ilości. Co ile aktualizowana jest ta baza? Chciałabym przejrzeć wszystkie, a na razie mam tylko 1000. Będę wdzięczna za pomoc.

    • Krzysiek

      Witam, mam taki problem:

      dodaje do „pobierz jak google” adresy moich stron. Dodaje stronę główna, i wszystko jest ok. dodaj jakąkolwiek inna podstronę i wywala mi błąd – „Nie znaleziono”, a gdy wchodzę na podstronę przez link to wszystko jest OK. Witryna jest młoda ma zaledwie kilka dni.

      Potrafi ktoś pomóc?

    Dodaj komentarz

    Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *