Cezary Lech

Linkowanie wewnętrzne, indeksowanie i przyjazna SEO paginacja

Kilka dni temu Maciek Gałecki z Bluerank opublikował w serwisie SEOmoz.org artykuł poruszający problem paginacji (artykuł dostępny także w wersji polskiej), gratulacje! Z artykułem zapoznałem się już jakiś czas temu, jednak dopiero publikacja na SEOmoz.org wywołała wymianę zdań w naszej firmie i zmotywowała mnie do dłuższej wypowiedzi na ten temat. W artykule odnoszę się bezpośrednio do audytowanej strony pokazując i opisując kroki polepszające indeksację witryny oraz rozwiązujące problem paginacji na znacznie wcześniejszym etapie.

Moim zdaniem artykuł podchodzi do problemu od nieco złej strony, analizuje bowiem dopiero finalny/krytyczny/ostateczny etap optymalizacji strony internetowej. Jednocześnie w mojej opinii przedstawione rozwiązanie ma zastosowanie w bardzo ograniczonej liczbie serwisów. Poniżej przedstawiam cztery kroki jakie powinniśmy podjąć przed zastosowaniem specyficznej paginacji opisanej we wspomnianym artykule.

Cztery kroki SEO poprawiające indeksację witryny:

1. Lepsza segregacja treści – rozbudowa struktury kategorii

Najprawdopodobniej twórca strony słabo przemyślał strukturę informacji witryny, czyli kategorie. W przypadku wspomnianej w artykule strony www.morusek.pl, największą kategorię koty (3600 ogłoszeń) można znacznie lepiej posegregować tematycznie, czyli utworzyć podkategorie takie jak np. rasy kotów, kolor sierści, miasta itp.
Wydłuża to długi ogon zapytań i co najważniejsze znacznie zmniejsza ilość ogłoszeń w jednej kategorii.

W tym przypadku dodanie 15 podkategorii w dziale koty spowoduje spadek średniej ilości ogłoszeń w kategorie do 240 .

2. Większy listing ofert – np. po 50 ofert na stronę

Z tego co widzę większość listingów na stronie morusek.pl ogranicza się do dziesięciu „ofert”. Wiemy wszyscy o teoretycznym limicie 100 linków na stronę, (w praktyce limit jest płynny np. dla mocnych stron jak strona główna). Na przeciętnej stronie tego serwisu znajduje się około 60-70 linków. Część z nich można śmiało ukryć przed oczyma Google np. przy pomocy tagu area, zostanie nam zatem liczba około 50-60 linków na stronę. Możemy zatem śmiało rozszerzyć listing/ilość ofert na stronie paginacji do 50 ofert.

Zatem, 240 / 50 =5 podstron paginacji na kategorię!.
W drugim kroku optymalizacji praktycznie rozwiązujemy problem!

3. Linkowanie do ofert i kategorii z tzw. mocnych punktów.

W trzecim kroku warto zadbać o linkowanie stron ofert i kategorii np. ze strony głównej. Istotą problemu indeksacji wszystkich podstron jest poprawne linkowanie wewnętrzne i zarządzanie przepływem Page Rank w obrębie witryny. W tym konkretnym przypadku kolejnym krokiem jest wspieranie (linkowanie) stron konkretnych ogłoszeń i podkategorii z mocnych punktów witryny czyli stron linkowanych np. site-wide lub mocno podlinkowanych przez strony zewnętrzne.

Na stronie „oferty” listę „podobnych ogłoszeń” można śmiało rozszerzyć do np. 5 podobnych ofert – doskonale polepsza tematyczność ogłoszenia – dodaje treść i tematyczne linki, dobre dla użytkowników, a także polepsza indeksację ogłoszeń na czym nam finalnie zależy.

4. Paginacja

Rozwiązanie przedstawione przez Maćka jest ciekawe ale dosyć zaawansowane i chyba mocno abstrakcyjne dla większości webmasterów, a co najważniejsze wydaje mi się że w tym konkretnym przypadku zbędne. Jeśli jednak powyższe trzy kroki nie przyniosą pożądanego rezultatu, wówczas odsyłam was jeszcze raz do posta na blogu Bluerank.

Jak stworzyć idealnie zaindeksowaną stronę?

forum maxroy com screen Na Forum.MaxROY.com przedstawiłem ciekawe Case Study poprawnie skonstruowanej strony, przypadek opiera się o teorię przepływu PageRank koncepcja szczególnie interesując dla małych, średnich stron. Kilka slajdów będących idealnym uzupełnieniem prezentacji z SEMcamp. Zarejestrowanych użytkowników zapraszam do wątku: – Jak zbudować idealnie zaindeksowaną stronę ?

Pomijam kwestie najbardziej banalnych elementów optymalizacji strony jak mapa .xml czy pozyskiwanie mocnych linków. Skupiłem się na elementach mniej oczywistych i często zaniedbywanych. Wydaje mi się że nieco podobny temat poruszyliśmy przeprowadzając Audyt SEO dla Gadzinowski.pl.

Reasumując, problem paginacji ma szanse zaistnieć dopiero na naprawdę dużych serwisach jak np. Allegro.pl lub inne rozbudowane serwisy ogłoszeniowe. W 99% przypadków polskich stron problem paginacji w ogóle nie powinien istnieć a rozwiązania problemu należy szukać na znacznie wcześniejszym etapie budowy i SEO optymalizacji witryny. W mojej opinii rozwiązanie zaproponowane przez Maćka ma bardzo ograniczone zastosowanie i w jego artykule zabrakło mi wyjaśnienia istoty problemu i rozwiązań znacznie bardziej kluczowych dla poprawnej optymalizacji strony.

P.S. Tak czy inaczej rozwiązanie ciekawe, warte przetestowania, (Bartek coś wspominał że chce przetestować na jakimś dużym polskim e-commerce ;)) fajnie że dzielimy się wiedzą.

P.S.S. Zobaczcie jaki fajny odzew na SEOmoz.org otrzymał post Maćka: Testing How Crawl Priority Works, zachwycony jest sam Rand Fishkin :)

czytaj także

Większość kont w Google Analytics jest źle skonfigurowanych – wywiad z Maciejem Lewińskim

Cezary Lech

O autorze

Cezary Lech

Współzałożyciel sprawny.marketing i obecnie Doradca Zarządu sprawny.marketing. Marketingiem internetowym zajmuje się od 2005 roku. Autor wielu a...

zobacz więcej artykułów >>

Zostaw komentarz

  1. Redakcja

    Przypominamy, że wielkimi krokami zbliża się konferencja I ♥ Marketing & Technology, która odbędzie się już 22–24 października 2024 roku oraz organizowane przez nas 33 szkolenia z zakresu marketingu.

    Jeśli chcesz być zawsze na bieżąco, zamów prenumeratę magazynu sprawny.marketing!

     

  2. Maciek Gałecki

    Czarek,

    Dzieki za promocje materialu i pozytywna opinie!

    Kilka punktow wyjasnienia do naszego artykulu:

    1) Glownym autorem jest wlasciciel serwisu Morusek.pl – nasz SEO Specialist, Jacek Tkaczuk (i on pewnie niebawem odpowie na bardziej szczegolowe pytania)
    2) Wlasnie z racji tego, ze serwis jest wlasnoscia Jacka – pozwolilismy sobie na serie testow (ten jest pierwszym, ktory zostal opisany i opublikowany) – de facto traktuj nasz wpis jako eksperyment a nie wynik optymalizacji SEO :)
    3) I teraz odnosnie Twoich 3 rad:
    – drzewo kategorii – mysle, ze najlepiej bedzie jezeli wypowie sie tutaj Jacek. Ja osobiscie (i intuicyjnie) sadze, ze jest to wynik przyzwyczajen uzytkownikow z innych serwisow ogloszeniowych tego typu (trzeba im przedstawic mimo wszystko podobne rozwiazanie, by bylo uzyteczne i intuicyjne w obsludze) oraz… analizy slow kluczowych :)
    – ilosc listingow per strona – sprawa wydaje sie prosta z punktu widzenia SEO, natomiast uwierz mi, ze biznesowo patrzac, wiele serwisow ogloszeniowych bazuje na ilosci generowanych page views – a tych latwiej wygenerowac duza ilosc przy mniejszej ilosci ogloszen na stronie… Podsumowujac, mimo realnych korzysci w SEO, nie kazdy wydawca ogloszeniowy zechce zastosowac takie rozwiazanie u siebie, niestety…
    – crosslinking – zdecydowanie tak.

    Dzieki – i zapraszam na naszego bloga oraz na SEOmoz.org, gdzie niebawem opublikujemy wyniki kilku nowych testow, nie ukrywam, zainspirowani rowniez pozytywnym feedbackiem w Polsce i za granica.

  3. Jacek Tkaczuk

    Cieszy mnie, że nasz post został dobrze odebrany zarówno w Polsce jak i za granicą. Mimo, że na pierwszy rzut oka traktuje o oczywistych kwestiach indeksacji, to jednak dotyczy tematyki, która chyba nie była do tej pory poruszana – indeksacja kolejnych stron listingów ogłoszeń/produktów. Oczywiście, tak jak napisał Maciej, to nie jest analiza serwisu Morusek.pl, a jedynie przedstawienie rezultatów i wniosków z badania, które zostało przeprowadzone na jego podstawie.

    Odnośnie Twoich rekomendacji – w większości są trafne, postaram się skomentować je po kolei:

    Ad1. (Lepsza segregacja treści)
    Sposób segregacji o której piszesz jest już wprowadzony. Użytkownicy mogą przeglądać ogłoszenia według wielu kategorii. Na przykład kategoria „Koty” (BTW to „Psy” są największą kategorią) dzieli się na kilka podkategorii głównych, a te na kolejne podkategorie drugiego rzędu (na przykład rasy kotów). Tak, że ogłoszenia rozbite są na kilkanaście/kilkadziesiąt „stron głównych kategorii”, które faktycznie indeksują się lepiej niż kolejne strony listingów. Dochodzą też województwa i miasta, co dodatkowo poszerza hierarchię.

    Ad3. (Linkowanie do kategorii z mocnych punktów)
    Oczywiście tak szeroka architektura wiąże się z problemem odpowiedniego grupowania linków i udostępniania ich do indeksacji. To na pewno dałoby się lepiej zorganizować. Możemy chociażby zauważyć, że najpierw mamy linki do województw, a dopiero później te do miast, chociaż zapewne więcej ludzi szuka ogłoszeń od razu z miast (na przykład „Yorkshire terrier Warszawa”, a nie „Yorkshire terrier województwo mazowieckie”). Ale, znowu tak jak napisał Maciej, oprócz SEO musimy wziąć pod uwagę inne czynniki, takie jak chociażby użyteczność. Podmiana województw miastami spowodowałaby powstanie zbyt wielu linków na jednej stronie, co nie byłoby łatwe w obsłudze.
    Oczywiście możemy też linkować ważniejsze kategorie ze strony głównej, a tak na prawdę poszerzyć ich listę, bo strona główna została już przygotowana w ten sposób.

    Ad2. (Większy listing ofert)
    Tak, to dobra rekomendacja. Może 100 ogłoszeń na stronę to trochę za dużo pod względem użyteczności, biznesu i wydajności aplikacji, ale już 20 czy 25 ogłoszeń jest jak najbardziej do realizacji, chociaż w przypadku obecnej częstotliwości pojawiania się nowych ogłoszeń (około 50 dziennie) obecna liczba ogłoszeń na stronie w zupełności zaspokaja potrzeby indeksacji.

  4. Googlarz odpowiedział na moje pytanie odnośnie stronicowania strony :). Jak czytam to wszystko, to normalnie jakbym czytał receptę na dobry spam pod SWLe :).
    Oczywistym jest, że każdy serwis w danej branży ma swoje smaczki, do tego trzeba brać poprawkę na użytkowników i spawy biznesowe (jak na przykład ilość wyświetleń).

  5. Maciek Gałecki

    @shpyo:

    Z calym szacunkiem dla Googlarza, czasami niestety czytamy odpowiedzi poprawne politycznie :-)

    A skad skojarzenie z SWL?

  6. Dawid G

    Czy używając tej metody tak jak w przypadku rel=nofollow moc linku gdzie jest ono użyte idzie w nic? tzn mając 5 linków gdzie 1 ma nofollow wszystkie mają po 20% mocy (20% z nofollow idzie w nic)

  7. Cezary Lech

    @Maciek: błąd poprawiony, co do paginacji i ilosci odslon to zauważ że mniej odsłon ale wiecej wejsc z google, a kazde wejscie to kilka odsłon ;)
    Ponadtto…

    @Jacek: …uważam ze przewijanie w dół to bardzo natrualna czynnosc. Wole przewinac piec razy strone w dol niz piec razy klikac w mala cyferke w stopce.

    @shpyo: chyba miał na mysli ze w ten spsob zacznie budowac strony ktore szybko nabiorą duzego site i w wrzuci je w SWL ! :)

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Wpisz imię
Napisz komentarz