Wokół pozycjonowania i optymalizacji krąży wiele mitów. Z doświadczenia w pracy jako konsultant i audytor wiem też, że wielu marketerów i przedsiębiorców posiada jakąś wiedzę, lecz niestety nieaktualną. Jestem przekonany, że ten tekst będzie stanowił wartościowe odświeżenie i punkt wyjścia do dalszych poszukiwań oraz edukacji w tej niezwykle ciekawej i dynamicznej dziedzinie.
Postanowiłem przyjrzeć się poszczególnym obszarom SEO i poprosić o komentarz znajomych ekspertów. Lektura tego artykułu powinna pomóc Ci zrozumieć, jakimi czynnikami operują specjaliści, chcąc wpłynąć na algorytmy Google.
Pierwszą warstwą optymalizacji jest bez wątpienia zapewnienie, że Google dobrze rozumie budowę naszego serwisu internetowego, że roboty crawlujące i indeksujące zasoby sieci czytają wszystko to, co chcemy im zaserwować. O wypowiedź w tym temacie poprosiłem niezależnego specjalistę i konsultanta SEO Łukasza Rogalę (rogala.pro), który specjalizuje się w audytach i kwestiach technicznych związanych z SEO. Moje wypowiedzi pojawiać się będą w dalszej części artykułu w formie pogrubionego tekstu oraz w sekcji poświęconej tworzeniu treści przyjaznych dla Google’a.
Technical SEO – Łukasz Rogala
Techniczne SEO to bez wątpienia jeden z najbardziej wymagających aspektów pracy nad stroną www. Zrealizowane we właściwy sposób, w połączeniu z aktywnym pozyskiwaniem linków d
o strony, pozwala cieszyć się długofalowymi efektami i znaczącym wzrostem organicznym na stronie.
Naszym nadrzędnym celem jest takie wykorzystanie budżetu crawlowania (ang. crawl budget), aby Google trafiał tylko do tych podstron, które stanowią wartość dla użytkownika i zapewniają duży ruch organiczny.
Zacznij od:
- Pełnego crawlu swojego serwisu, korzystając z narzędzia Screaming Frog SEO Spider, OnCrawl lub DeepCrawl, aby pobrać listę wszystkich podstron, jakie znajdują się w serwisie.
- Skorzystaj z komendy site:domena.com połączonej ze słowami kluczowymi, na jakie jest widoczna Twoja strona (np. pozycjonowanie site:rogala.pro). Uzyskasz w ten sposób pełną zawartość indeksu dla swojej strony.
- Wejdź w Google Analytics i Google Search Console – pobierz wszystkie adresy URL, na jakie obecnie pozyskujesz ruch organiczny.
- Pomocne będzie sprawdzenie logów serwerowych – poproś swój dział IT o wyeksportowanie logów za ostatni tydzień lub dwa (zależne od wielkości ruchu na stronie) oraz zawężenie wyników tylko dla Googlebota. Uważaj na fałszywego bota – zawsze szukaj klas adresów IP, w jakich porusza się Google.
Tak uzyskane dane porównaj ze sobą w poszukiwaniu różnić, połącz i usuń duplikaty. Zdziwisz się, jak wiele różnych podstron znajduje Google – na część z nich (widoczne w logach serwerowych) traci naprawdę dużo czasu.
Co zrobić z adresami, na które trafia Google, a które nie budują ruchu organicznego?
- Przebudować w oparciu o analizę słów kluczowych.
- Połączyć z innymi podobnymi podstronami, tworząc odpowiednie przekierowania.
- Zablokować przed indeksacją, łącząc znacznik meta robots noindex, follow oraz plik robots.txt.
Przy okazji powyższych prac warto zastanowić się nad sposobem wykonania linkowania wewnętrznego – niejednokrotnie to największy problem na drodze do budowania fajnego ruchu organicznego.
Nie sposób pominąć także kwestii renderowania stron www przez Google – dotyczy to przede wszystkim witryn mocno wykorzystujących JavaScript do serwowania zawartości użytkownikom. Aby sprawdzić, jak i czy Google widzi witrynę, należy:
- Wykorzystać opcję „Fetch and Render” w starym Google Search Console lub „Sprawdzenie adresu URL” w nowym. Interesuje nas przede wszystkim kod, jaki robot Google uzyskuje po wejściu na stronę www. Jeżeli wszystko jest ok, zobaczymy zarówno zrzut ekranu, jak i kod HTML.
- Sprawdzić jaki kod strony uzyskuje Google dzięki Mobile Friendly Test: https://search.google.com/test/mobile-friendly.
- Uzupełnieniem, o którym jakiś czas temu wspomniał John Mueller (Senior Webmaster Trends Analyst w Google) na Twitterze jest wykorzystanie Rich Result Testing Tool.
Jeżeli masz możliwość, odpal stronę www w Chrome wersji 41, z której w tym momencie korzysta Google do renderowania zawartości. Jeżeli pojawiają się problemy w działaniu/poruszaniu się po stronie, w 70% przypadków Google także będzie miał z tym problem.
PORADA
Google dąży do lepszego zrozumienia stron stworzonych w Java Scripcie, dlatego w niektórych przypadkach, pomimo pozornie niedostępnego kodu:
Google bez problemu jest w stanie pobrać i zindeksować zawartość strony:
Nie warto jednak ryzykować. Zapytasz: dlatego?
- Tam, gdzie to możliwe ogranicz wykorzystywanie JavaScriptu do absolutnego minimum.
- Jeżeli Twoja strona musi być dynamiczna, zadbaj o pełen SSR (Server-Side Rendering). Dzięki temu masz pewność, że w razie problemów z odczytaniem JS Google, tak czy siak, będzie w stanie poruszać się po stronie i ją indeksować.
- Jeżeli pełen SSR nie wchodzi w grę, zadbaj o to, aby w klasyczny sposób udostępnić robotowi Google dane zawarte w nagłówku <head> strony (title, description, rel=”canonical”, meta robots). Dodatkowo zadbaj o to, aby bloki tekstowe osadzone zostały w HTML, nie w JavaScript.
Jak już wspominałem, kolejnym niezwykle istotnym obszarem optymalizacji pod kątem Google jest architektura informacji, czyli rozmieszczenie treści na stronie i połączenia między nimi. O wypowiedź na ten temat poprosiłem Damiana Sałkowskiego, CEO Senuto.
Architektura informacji – Damian Sałkowski
Rola architektury informacji w serwisach contentowych jest subiektywna, zależna od konkretnego przypadku. Jeśli planujemy ją dla serwisu monotematycznego (np. blog o cukrzycy), to nie będzie miała ona jakiegoś kolosalnego znaczenia, bo będzie dość płaska – Googlebot nie ma się gdzie zgubić, PageRank raczej rozkłada się równomiernie. Jeśli mamy jednak do czynienia z serwisem, który podejmuje więcej niż jedną tematykę, to sprawa nabiera ogromnej wagi. Myślę, że w przypadku naprawdę dużych serwisów (np. Abczdrowie.pl) jest to jeden z trzech najważniejszych elementów w całej optymalizacji on-site.
Wróćmy jednak do tematu treści. Kompromis w tym przypadku oznacza zarówno wartość dla użytkownika, jak i dla wyszukiwarki. Warto zerwać z myśleniem pod tytułem „treści pod SEO”. Tworząc treści, powinniśmy skupić się na tym, aby dostarczyć użytkownikowi kompleksowe źródło informacji. Wyróżniłbym tu dwa istotne elementy:
- Kompleksowość treści – Google od dosyć dawna pod uwagę w analizie bierze to, jak wiele na dany temat użytkownik może dowiedzieć się z danego serwisu. Dla przykładu, jeśli tworzymy serwis o rowerach, to z punktu widzenia wyszukiwarki im więcej treści powiązanych z tematyką rowerową mieć będziemy, tym lepiej. Nie powinniśmy zatem skupiać się tylko na optymalizacji konkretnego artykułu pod konkretne słowo kluczowe, a na optymalizacji serwisu pod dany temat, wypełniając go treścią o danej tematyce.
- Kontekst użytkownika – w serwisach wielotematycznych architektura informacji często zaburzona jest poprzez mieszanie ze sobą różnych kontekstó Przykładowo, w serwisie informacyjnym treści o cukrzycy podlinkowane są obok treści o zakupie mieszkania. Budując architekturę, powinniśmy skupić się na tym, aby utrzymać użytkownika w kontekście, z którego do nas przyszedł, nie wyprowadzać go z niego. To również Google bierze pod uwagę.
Podsumowując, jeśli zadbamy m.in. o odpowiednią kontekstową architekturę informacji oraz zaczniemy skupiać się na optymalizacji treści pod kątem odpowiednich tematów, nie zaś pojedynczych fraz, to mamy znacznie większe szanse na wysokie pozycje.
Obiecałem, że dodam parę słów od siebie na temat contentu. Treści stanowią kwintesencję SEO, czy też w ogóle marketingu internetowego, bo to one odpowiadają za wartościową interakcję – komunikację między marką a jej klientem, czy też szerzej – użytkownikiem. Jednocześnie trzeba zauważyć, że przez ostatnie lata frazes „content is king” zaprowadził prawdziwe spustoszenie w rozumieniu tego, czym jest pozycjonowanie stron. Odpowiada za to sam Google, który mówi w swoich wytycznych „twórz nietuzinkowe treści”, a naturalne linki przyjdą same i osiągniesz wysokie pozycje. Praktyka pokazuje, że jest zgoła inaczej. Trzeba pamiętać, że bez linków i odpowiedniej optymalizacji technicznej treści na stronie nie będą realizować swoich celów.
Content – Szymon Słowik
Przede wszystkim pamiętaj, aby skupić się na treściach tekstowych – to z nimi najlepiej radzi sobie Google i to one odpowiadają w większości przypadków za obecność strony w wynikach wyszukiwania. Aby Twój content pojawiał się w Google, musi przede wszystkim odpowiadać na zapytania wpisywane przez użytkowników – tzw. słowa kluczowe. Grzechem głównych większości blogów firmowych, jakie audytuję jest brak targetowania właściwych fraz. Analiza słów kluczowych pozwala stwierdzić, czego tak naprawdę szukają internauci (a to powinno interesować każdego marketera, nie tylko specjalistę SEO).
Każda strona docelowa, którą chcemy pozycjonować, powinna posiadać unikalną treść oraz być zoptymalizowana pod jedną nadrzędną frazę. Fraza ta powinna posiadać odpowiedni wolumen wyszukiwania, aby w ogóle był sens się nią zajmować. Statystyki słów kluczowych można sprawdzić chociażby w Senuto czy też Semstorm, Ahrefs, Semrush i innych popularnych narzędziach. Nadrzędne słowo kluczowe powinno się znaleźć na początku tagu title – również unikalnego w skali całego serwisu. To jednak nie koniec. Następnie należy zbudować treść, uwzględniając jak najbardziej precyzyjne pokrycie tematu, który definiuje wybrane słowo kluczowe. Nie oznacza to, że fraza ta ma się pojawić jak najwięcej razy w treści. Istotne jest zidentyfikowanie innych fraz powiązanych semantycznie z głównym tematem, które często współwystępują w treściach innych serwisów internetowych. Ponadto sugeruję zawsze przeanalizować naturalnie pojawiające się związki frazeologiczne, poszukać synonimów, omówić kontekst użycia, sprawdzić, czy użytkownicy nie wyszukują, korzystając z tzw. zapytań konwersacyjnych (czyli naturalnie brzmiących pytań typu: „Jak wymienić łańcuch w rowerze”). Zidentyfikowanie tego typu haseł pozwoli zbudować treści, które zostaną uznane przez Google za wartościowe. Można też prześledzić konkurencję, która już rankuje wysoko w Google (np. za pomocą SurferSEO) i na podstawie takiej analizy porównawczej zbudować plan artykułu. W dalszym ciągu liczy się też odpowiednia struktura treści tekstowych. Należy pamiętać, że nagłówki Hx to nie element ostylowania tekstu. Pełnią one raczej funkcję semantyczną i powinny być używane hierarchicznie.
Załóżmy, że posiadasz już odpowiednio zoptymalizowaną stronę w warstwie technologicznej, masz optymalną architekturę informacji i poprawne z perspektywy SEO treści. Teraz czas na link building – bez niego nie osiągniesz rezultatów w postaci topowych pozycji dających duży i wartościowy ruch.
Do wypowiedzi na ten temat zaprosiłem Roberta Niechciała, CEO ignition.co. Zapytałem go po prostu, czym dla Google’a jest wartościowy link w 2019 roku?
Wartościowy link building – Robert Niechciał
Bez wątpienia link building ciągle jest i będzie jednym z najważniejszych czynników rankingowych. Linki to cały czas forma
paliwa do budowania „tarcia” z wyszukiwarką Google, a tym samym najskuteczniejsza metoda budowania przewagi konkurencyjnej, szczególnie w trudnych branżach. Niestety w związku ze swoją wysoką specjalizacją oraz dynamiką zmian jest to temat mało sexy, niedoceniany w budżetach.
Z moich obserwacji wynika jednak, że tempo zmian nie zależy już tylko od zmian algorytmów Google, ale także od eksploatacji ogólnodostępnych zasobów link buildingowych. Geniusz algorytmu Pingwin 4.0 jest absolutny. Aby odpowiedzieć na zadane pytanie, proponuję zastanowić się nad innym pytaniem – jakie linki Google uznaje za pozbawione wartości?
Nie jest tajemnicą, że ogólnodostępny link building w skali makro został sprowadzony do realizacji tanich publikacji sponsorowanych. To jest tanie, względnie ładne i dobrze wygląda w raportach. I tyle… Z perspektywy czasu i rozwiązania długoterminowego zaczyna to przypominać precle z poprzedniej epoki SEO.
Zaryzykuję tezę, że skuteczność takich działań w dłuższej perspektywie czasu będzie odwrotnie proporcjonalna do wyników finansowych platform content marketingowych i firm zajmujących się masową sprzedażą linków. Oczywiście jest to łatwe i szybko skalowalne, ale dostępne dla wszystkich. A to, co jest dla wszystkich i ma ograniczone zasoby, ulega dewaluacji i prowadzi do błędu logicznego – przelewania pustego w próżne. Na szczęście Google to naczynia połączone i jeśli cała branża korzysta z porównywalnych zasobów link buildingowych, to każdy ma mniej paliwa.
Otwiera to ogromne pole do działania i budowania przewagi. Bańka pęknie… Jak każda.
Oceniam, że w ciągu najbliższych lat zasoby link juice powszechnie dostępnych domen się wyczerpią, a co za tym idzie, dotąd niedostępne ekskluzywne branże staną się ponownie dostępne dla nowych projektów, które będą potrafiły wyjść z szeregu i zbudować przewagę konkurencyjną w tym zakresie. Warto również pamiętać, że polski rynek link buildingowy jest historycznie skażony spamem, SWL-ami itd… W Polsce nie ma mocy link buildingowej. Odpowiadając na pytanie, wartościowy link to taki, którego nie może mieć każdy. To link wywołujący odczuwalne tarcie z wyszukiwarką. LINK JUICE i planowanie to frazy kluczowe na 2019 r.
Kolejnym specjalistą, którego poprosiłem o wypowiedź, jest Łukasz Zontek, założyciel Sfeo.agency oraz twórca narzędzia wspierającego link building – sfeosem.com. Zapytałem go o znaczenie marketingu szeptanego, który w dalszym ciągu jest bardzo popularną taktyką zdobywania linków na forach internetowych i blogach.
Łukasz Zontek
Link building w oparciu o marketing szeptany? Z każdym kolejnym rokiem algorytmy Google przechodzą ewolucję, aby móc jak najlepiej dopasowywać wyniki dla zapytań wpisywanych przez użytkowników. Nie da się również ukryć, że w trakcie procesu pozycjonowania oprócz optymalizacji i budowania treści należy regularnie pozyskiwać nowe linki z różnych źródeł. Kiedyś bardzo często praktykowano „dopalanie”, czyli dodatkowe linkowane miejsca, z którego pozyskaliśmy link dla naszej domeny. Oczywiście fajnie jest robić link building na domenach z dobrym profilem linków, ale osobiście w swojej praktyce biorę pod uwagę trzy czynniki: słowo kluczowe, ruch podstrony, z której chcę pozyskać link i pozycję w wynikach wyszukiwania.
Czy linki z for mają jeszcze sens? Ilu specjalistów, tyle opinii oraz teorii. W mojej ocenie natomiast mają, jeżeli podejdziemy do tego nie poprzez konieczność pozyskania linka do raportu, ale od strony analitycznej. Jak wspomniałem wyżej, dla mnie ma znaczenie to, dla jakiej frazy chcę taki link pozyskać. Dla przykładu weźmy frazę długiego ogona „jak pościelić łóżko”.
Na początek warto sprawdzić, jak kształtują się wyniki wyszukiwania pod te słowa:
Na początku widzimy wyniki z YouTube’a, które rankują najwyżej, więc możemy w nich z komentarza spróbować pozyskać tematyczny link zgodny w 100% ze słowem kluczowym, które chcemy wypozycjonować. Patrząc dalej, mamy dwa blogi, gdzie również możemy pozyskać link tematyczny z miejsc mających ruch oraz pozycję:
Linki z for czy komentarzy mają sens, jeżeli te miejsca wysoko rankują w wynikach wyszukiwania. Często jest to spowodowane tym, że dany wątek ma dużo treści, co wiąże się również z nasyceniem słów kluczowych, więc dana domena może rankować w TOP10. Aktualnie nie ma sensu robić szeptanki „gdzie popadnie” w dużych ilościach. Znacznie lepiej wyselekcjonować kilka miejsc o widoczności i ruchu, dzięki czemu mamy spore szanse na to, że nasza strona wejdzie na wyższe pozycje.
Teoretycznie omówione zagadnienia stanowią clou pozycjonowania. Jednak stwierdziłem, że warto poruszyć także kilka kwestii strategicznych oraz związanych ze specyficznymi obszarami pozycjonowania. W pierwszej kolejności poprosiłem Pawła Gontarka (SEO Director w Fabryce Marketingu oraz blogującego na zgred.pl), aby omówił w paru zdaniach specyfikę pozycjonowania lokalnego, czyli zorientowanego na konkretny obszar geograficzny (najczęściej daną miejscowość).
Pozycjonowanie lokalne – Paweł Gontarek
Aby zrealizować pozycjonowanie na rynku lokalnym przede wszystkim należy przeanalizować branżę, z jaką mamy do czynienia. Dzięki temu będziemy wiedzieć, na jakim dokładnie obszarze działa klient i z jakiego pozyskuje swoich klientów. To, co jest najbardziej istotne, to:
- wiek domeny, która jest dodana do Google Moja Firma,
- optymalizacja wizytówki ze szczególnym uwzględnieniem opisu, zdjęć z zewnątrz i zdjęć ze środka firmy,
- fragmenty rozszerzone LocalBusiness,
- czy firma ma centralę i jednostki podległe, czy nie – w tym przypadku powinno się wskazywać adres URL związany z danym miastem, a nie adres strony głównej,
- sama geolokalizacja firmy – te spoza terytorium danego miasta nie mają szans na znalezienie się w mapkach – i trzeba o tym poinformować klienta,
- na stronie kontaktu warto opisać, w pobliżu jakich charakterystycznych punktów znajduje się lokalizacja firmy, używając słów „w pobliżu”, „blisko”, „niedaleko”, „obok” i tak dalej. Warto też opisywać dzielnice z użyciem słów charakterystycznych dla danego regionu (zbadać dialekt).
Z mojego punktu widzenia wykonywanie NAPów „na siłę” nie pomaga – wystarczy dobrze zoptymalizować serwis i podstronę kontaktu.
Cały proces optymalizacji pozycjonowania nie może być realizowany jedynie w oparciu o własną intuicję czy też nawet dane dotyczące słów kluczowych. Bez analizy konkurencji nie da się robić dobrego SEO, co podkreśla zdecydowanie Michał Suski, co-founder SurferSEO:
Analiza konkurencji – Michał Suski
Wyczucie i intuicja w SEO ustępują na rzecz danych. Analiza konkurencji staje się odpowiedzią na większość pytań. Stopień trudności czy wycena kosztów pozycjonowania konkretnej frazy lub grupy słów kluczowych zależy od jakości działań konkurencji. Zarówno w przypadku czynników on-page, jak i off-page warto posiłkować się narzędziami takimi jak Surfer czy Ahrefs. Pozyskanie danych to proces czasochłonny, specjaliści powinni skupiać się przede wszystkim na ich analizie. Czynników on-page jest kilkaset, trzeba znaleźć te, w których nasza strona odstaje od konkurencji.
Poza kilkoma „pewniakami” mamy pełne zróżnicowanie wpływu konkretnych czynników na ostateczny wynik pozycjonowania wybranej frazy. Ważna jest świadomość, że ilość dobrych praktyk, które są skuteczne w każdej sytuacji, zmniejszyła się drastycznie w ostatnich latach.
Wpływ na koszty pozycjonowania ma stopień rozbudowania treści w obrębie artykułu i całego portalu. Aktualnie taniej jest przeanalizować on-page i doprowadzić go do perfekcji niż pozyskiwać linki do strony, która nie dysponuje odpowiednią zawartością.
Off-page to aktywność w Internecie dotycząca pozycjonowanej domeny. Wyróżniamy tu wzmianki o marce, linki czy działania w mediach społecznościowych. Liczy się jakość tych działań – kilka linków może odpowiadać za sukces strony. Zakres linkowania poznamy, gdy porównamy strony pod kątem on-page i zestawimy je z linkami prowadzącymi do każdej z witryn. Dzięki temu łatwiej będzie obrać optymalną strategię, która może być oparta o optymalizację, szeroko zakrojony linkbuilding lub właśnie kilka podstawowych odnośników i perfekcyjną treść.
Na koniec warto też zwrócić uwagę na rolę SEO w kontekście innych kanałów pozyskiwania ruchu. Najczęstszym pytaniem, z jakim się spotykam jest to o proporcje między pozycjonowaniem a reklamą Google Ads. W tym przypadku wiele zależy od momentu, w którym startujemy. Dla nowego serwisu zbudowanie ruchu z wyników organicznych będzie celem długoterminowym. Ciężko, aby SEO zarabiało na siebie w pierwszych etapach rozwoju projektu. Dlatego też należy posiłkować się również reklamami płatnymi (PPC) i do żadnego z formatów nie podchodzić doktrynalnie. Temat komentuje Krzysztof Marzec, CEO Deva Group, specjalista z doświadczeniem zarówno w SEO, jak i PPC SEM.
SEO czy Google Ads? – Krzysztof Marzec
W dojrzałej kampanii proponuję szukać nisz za pomocą Ads i szybko reagować na nie świetną treścią oraz linkami w SEO. Nie popełniaj jednak błędu, myśląc, że zawsze łatwo zastąpić reklamę na trudne słowa zwyczajną obecnością na pierwszej stronie wyników wyszukiwania. Sprawdzaj dane w Google Search Console, obserwując średni CTR, a dowiesz się, czy wyniki organiczne w danym przypadku mają odpowiedni udział w kliknięciach.
Ostatni blok tematyczny dotyczy Mobile First Index – istotnej zmiany, jaka następuje od jakiegoś czasu w sposobie indeksowania zasobów sieci przez roboty Google. Ma ona istotny wpływ na sposób projektowania serwisów internetowych i serwowania treści – zwłaszcza, jeśli ktoś przespał fakt, że od prawie dekady mamy „rok mobile”, jak zwykło się powtarzać na konferencjach branżowych. Poniżej rozwinięcie tematu przygotowane przez Mariusza Bacica, SEO Specialist w MaxROY.agency:
Mobile First Index – Mariusz Bacic
Statystyki pokazują, że obecnie 60% zapytań w Google pochodzi z urządzeń mobilnych. Na wielu stronach ruch z urządzeń mobilnych odnotowuje większy udział niż ruch z komputerów. Google, wychodząc naprzeciw użytkownikom, przygotował zmiany w swoim algorytmie. Od kilku miesięcy użytkownicy w panelu „Search Console” otrzymują komunikaty, że Google rozpoczął indeksowanie ich stron pod kątem urządzeń mobilnych. W dużym uproszczeniu oznacza to, że teraz, zamiast wersji na komputery, już tylko strona mobilna jest oceniana przez algorytm.
Pełna treść komunikatu wygląda następująco:
Mimo iż jeszcze nie wszyscy otrzymali stosowny komunikat, najwyższa pora, aby przygotować się na zmiany. Poniżej kilka wybranych wskazówek:
1. Wykorzystywanie techniki Responsive Web Design
Posiadasz jeszcze osobną wersję mobilną (M.nazwastrony.pl) swojej strony? Google oficjalnie sugeruje przejście i korzystanie tylko z jednej globalnej wersji strony, wykorzystując Responsive Web Desing (dostosowanie wyglądu strony do urządzeń mobilnych).
2. Co zrobić z treścią na stronie?
Wraz z przygotowaniem stron w RWD (Responsive Web Design) część webmasterów, w celu oszczędzania zasobów i przyspieszenia ładowania stron na urządzeniach mobilnych, rezygnuje z wyświetlania wszystkich elementów, które występują w wersji na komputery. O ile zmiany dotyczą niektórych grafik czy też sliderów, o tyle faktycznie ich pozbycie się z wersji mobilnej może „odchudzić” stronę o kilka megabajtów i poprawić szybkość działania. Jednak co w przypadku treści np. rozbudowanych opisów kategorii? Stosunkowo popularne jest ukrywanie treści w klikalnych i rozwijanych menu, w szczególności na urządzeniach mobilnych, gdzie okno robocze jest mniejsze, a każda przestrzeń jest w cenie. Według informacji przekazywanych przez Google’a w przypadku urządzeń mobilnych ukrywanie treści nie powoduje jej ignorowania przez roboty Google’a.
Niestety, co ciekawe, w sieci można znaleźć materiały przeczące tym informacjom:
https://dejanseo.com.au/mobile-first-test/ – jeżeli na Waszych witrynach wykorzystujecie chowanie treści i otrzymaliście już komunikat o mobile first index, to zwróciłbym szczególną uwagę na to, czy Wasza treść jest poprawnie indeksowana.
3. Czy strona poprawnie ładuje się na urządzeniach mobilnych?
Jak szybko przetestować najważniejsze podstrony w serwisie pod kątem poprawnego działania na urządzeniach mobilnych? Można w tym celu skorzystać z prostego narzędzia Google’a, jakim jest „Test optymalizacji mobilnej”:
https://search.google.com/test/mobile-friendly
W przypadku problemów otrzymujemy uproszczone informacje o ich przyczynach.
Dodatkowo warto zajrzeć do nowego profilu Search Console i w zakładce „Obsługa na urządzeniach mobilnych” sprawdzić stan naszej witryny.
4. Screaming Frog a szybkość działania
Jeżeli mamy możliwość skorzystania z programu o nazwie Screaming Frog, to zalecamy przeskanowanie strony. Bardzo ważna jest tutaj konfiguracja ustawień i zmiana User Agent z wersji standardowej na symulacje ruchu z Googlebota Mobilnego.
Dzięki Screaming Frog na szybko możemy przejrzeć struktur naszej witryny, sprawdzić meta dane czy poznać szybkość ładowania każdej z podstron:
Dodałbym na koniec, że narzędzia Google’a (GSC / web.dev) nie wyczerpują tematu, jeśli chodzi o tworzenie stron przyjaznych dla użytkowników urządzeń mobilnych i warto w tym zakresie iść znacznie dalej, niż wymaga tego sam Google.
Podsumowanie
Jak widzisz SEO jest dziedziną mocno analityczną. W każdym obszarze potrzebne są właściwe narzędzia i zrozumienie logiki działania algorytmów Google. Do procesu budowania widoczności w organicznych wynikach wyszukiwania należy podejść z pełną świadomością wszystkich kluczowych obszarów oddziaływania na Google. Nie sposób osiągać świetne rezultaty w konkurencyjnych branżach za pomocą samej rozbudowy treści lub samego link buildingu. Trzeba efektywnie analizować konkurencję, precyzyjnie dobierać nisze, w których jesteśmy w stanie zaistnieć (jednocześnie nie bojąc się korzystać z Google Ads, kiedy jest to potrzebne i pożyteczne dla biznesu).
Do tego należy pamiętać o rosnącej roli czynników behawioralnych, którym spokojnie można byłoby poświęcić osobny artykuł. W tej materii istnieje wiele niedopowiedzeń i eksperci nie są tu zgodni. Jednak intuicja i nastawienie na cele biznesowe podpowiadają, że powinniśmy dbać o wysoki CTR z wyników wyszukiwania, a także niski współczynnik odrzuceń. W tym celu warto poświęcić czas na tzw. SXO (ang. Search eXperience Optimization) i poprawę UX serwisu – na czele z szybkością. Przecież finalnie chodzi o to, aby realizować cel biznesowy witryny, a bez skupienia się na użytkowniku i jego potrzebach jest to praktycznie niemożliwe.
Przypominamy, że wielkimi krokami zbliża się konferencja I ♥ Marketing & Technology, która odbędzie się już 22–24 października 2024 roku oraz organizowane przez nas 33 szkolenia z zakresu marketingu.
Jeśli chcesz być zawsze na bieżąco, zamów prenumeratę magazynu sprawny.marketing!
Odpowiednie spozycjonowanie strony to klucz do sukcesu. Lepsze zasięgi równają się większej bazie potencjalnych klientów.