SprawnyMarketing.pl - Skuteczny i ekonomiczny marketing internetowy

Misją serwisu jest tworzenie społeczności wokół idei sprawnego marketingu internetowego. Dzielimy się wiedzą, szkolimy, udostępniamy narzędzia.

        


Streszczenie 5 Hangoutów SEO – Sporo nowości!

 | Autor: | Google+ | mail




Google+ Hangout temat SEO pozycjonowanieW ostatnich tygodniach w branży SEO co rusz jest głośno o tzw. hangoutach z tematu SEO i pozycjonowanie, głównie w wykonaniu Johna Muellera z Google. Regularnie relacjonuje je dla nas Karol Dziedzic na swoim Profilu Google+, raz już korzystaliśmy z uprzejmości Karola i dzisiaj ponownie w większym wpisie przedstawiamy wam najważniejsze newsy przekazywane nam tej formie przez Google. Artykuł jest długi, zawiera sporo cytatów i zpożyczeń z innych stron, jeśli natomiast nie śledziliście ostatnich informacji to tutaj znajdziecie czystą esencje – warto przebrnąć.



Pierwszy polski Hangout SEO

Zanim przejdziemy do omawiania newsów, warto wspomnieć że wczoraj wieczorem miało miejsce pierwsze polskie spotkanie SEO na platformie Hangout czyli wdrożonej w Google+ opcji pozwalającej na telekonferencje video kilku osób. Polskie spotkanie zebrało ośmiu specjalistów z polskiego podwórka i około 75 słuchaczy obserwujących transmijse live na YouTube. Spotkanie skrzyknął i zorganizował wspomniany już Karol Dziedzic.

Dla osób które opuściły audycje na żywo jest dostępne nagranie na YouTube:

Tak jak Karol Dziedzic wyspecjalizował się w relacjonowaniu zwartości hangoutów z Johnem Muellerm, tak zdaje się że Sebastian Jakubiec będzie relacjonował polskie spotkania na hangout. Paweł Rabinek przygotował natomiast fajne zestawienie adresów stron i źródeł, na które się powoływaliśmy w trakcie Hangoutu.

Hangout SEO: 301, chmury tagów, nofollow, geolokalizacja

Chronologicznie od najświeższego Hangoutu z Google Webmaster Central

24 Sierpień 2012 John Mueller Źródło: Karol Dziedzic
[Red. Pozwoliłem sobie na drobne zmiany redakcyjne aby wszyscy czytelnicy zrozumieli przesłanie streszczenia.]

• Przy przenoszeniu strony na nowy adres:
- Przekierowanie 301 w modelu każdy stary URL na nowy URL
- Audyt linkowania wewnętrznego i zewnętrznego – double check!
- Zmiana adresu domeny w Google Webmaster Tools

• Czasem humar tagów i htmlowe mapy strony (sitemap.html) na stronie są ok, jednak częściej postrzegane są jako spam – wszystko zależy od intencji.

• W zgłoszeniach o reincluson request warto podlinkować doukemnt stworzony Google docs w których możemy szerzej opisać problem przy ponownym zgłoszeniu witryny do rozpatrzenia

• Inżynierowie Google pracują nad dobrym zbilansowaniem pomiędzy pokazywaniem w SERP’ach świeżych informacji newsowych oraz starszych stron (np. wikipedia)

• Nie jest rekomendowane wstawianie atrybutu „nofollow” na linkach wewnętrznych typu podstrona linkuje do podstrony ale już link „nofollow” na linku do logowania/rejestracji jest juz ok tzw. PageRank Sculpting

• Temat poruszony przez Bill Slawski
John mówił, że to by było dziwne robić sobie jaja z webmasterów, aczkolwiek..

• Czasem można sie przejechac na artykułach sponsorowancyh i guest bloggingu, wiec należy to robić z rozsądkiem lub dodwawać nofollow na linkach wychodzacych z takich artykułów.

Poniżej wady i zalety różnych rozwiązań związanych z geolokalizacją. Zasadniczo w klasyczny podejściu tworzenia wersji językowej na subdomenie czy podstronie – dla G bez znaczenia. Więc róbcie to jak Wam wygodniej.

pozycjonowanie i geotargeting domen regionalizacja seo

 

 

 

 

 

 

 

 

Najciekawsze pytania z dzisiejszego Hangouta opracowane przez Sebastiana Miśniakiewicza często nieco bardziej rozbudowane niż w relacj Karola.

Czy powinno się używać opcji „Zmiana adresu” w Narzędziach jeżeli domena nie jest w 100% przekierowana na nowy adres?

Jest to dopuszczalne, nie musimy mieć 100% przekierowania. Może się zdarzyć, że kilka stron ze starej domeny, np. polityka prywatności, pozostanie na starej domenie – w takiej sytuacji możemy „z czystym sumieniem” użyć w/w opcji z Narzędzi. Trzeba tylko pamiętać o tym, że robot nie zawsze odwiedza każdą stronę z taką samą częstotliwością – z tego powodu przekierowanie całej domeny musi potrwać. Polecam obserwować nową, przydatna funkcję w Narzędziach, którą opisałem niedawno – Stan zaindeksowania. Bardzo przydatne w sytuacji, gdy przekierowujemy serwis ze starego adresu na nowy.

Czy przekierowanie 301 przenosi złą historię na nową domenę? – jak stara otrzyma np. powiadomienie o nienaturalnych linkach

Według słów Johna Google sobie radzi z tym całkiem dobrze – ustawienie przekierowania 301, nawet, jak działa, to jest to rozwiązanie tymczasowe – nieprzydatne dla kogoś, kto myśli o stabilnej pozycji w SERPach swojej strony w długim okresie czasu. jeżeli zaś ktoś uważa, że jakaś domena „ucieka SQT” ciągle w ten sposób – można ją zgłosić w spam raporcie.

Co się dzieje jak jest kilku autorów artykułu? Czy zobaczymy ich wszystkich w SERPach?
Google obsługuje na razie tylko jednego autora dla artykułu. Więc jak jest ich więcej, to Google i tak w SERPy wrzuci jednego. Którego – tego John nie powiedział, moim zdaniem zatem w grę będzie wchodziła reputacja/popularność danej osoby – i ta właśnie wyskoczy w wynikach wyszukiwania przy danym poście.

Czy konkurencja może nam przy Pingwinie zaszkodzić?
Google nad tym cały czas pracuje, aby tak nie było. Np. ignorowane są linki, które spamerzy od czasu do czasu wrzucają gdzieś do naszej strony są ignorowane, nie mają negatywnego wpływu na naszą stronę. Trzeba pamietać tylko, że jak strona spada, idziemy do Narzędzi, widzimy jakieś „dziwne linki” w Narzędziach – nie od razu oznacza to, że to te linki sie do spadku przyczynuiły. Algorytm to wiele czynników – warto wtedy popatrzyć się na strone i dokonac analizy strony.

Usuwając linki (w odpowiedzi na powiadomienie od Google o nienaturalnych BL) czy powinniśmy martwić się tymi, które są oznacne atrybutem nofollow, zwracającymi błędy 4XX/i inne czy te, które są przekierowaniami 302?
Nofollow nie przekazuje PR, więc można pominąć strony, z których mamy takie linki. Błędy też nie są brane pod uwagę. Ale już strony, z których mamy na naszą witrynę poustawiane przekierowanie 302 czy 301 należy przeanalizować – i w razie konieczności „pozbyć się ich”.

Google celowo „miesza z SERPami”, aby „wytropić spamerów”. Czy to prawda? temat został poruszony na SEO by the Sea.
Nie :)

Jeżeli strona leci w wynikach wyszukiwania wiele osób uważa, że prośba o ponowne rozpatrzenie pomoże w odzyskaniu poprzednich pozycji. A jednocześnie obawia się, że może to się okazać zgubne – wychodzi z założenia, że Search Quality Team sprawdza wtedy stronę bardzo dokładnie i może znaleść „coś więcej”. Jak to jest?
Jeżeli strona jest dotknięta tylko „algorytmem” to SQT nie zajmuje się stroną! W takiej sytuacji nie zajdzie sytuacja, w której SQT będzie „negatywnie” wpływał na stronę. Ale jak strona została dotknięta ręczną interwencją, to wtedy już musimy być przygotowani na ocenę strony przez SQT.
Nie jest zatem prawdą, że jeżeli mamy np. stronę z ukrytym tekstem, a zostanie ona dotknięta Pingwinem, to wysłanie zgłoszenia „pogrąży ją do końca”. Tutaj widać zmiane nastawienia – jakiś czas temu miałem z Google inne informacje…

Czy powinniśmy się obawiać, jak na blogu wpisy mają oceny tylko maksymalne?
Jeżeli uważamy, że strona używa rich snippets do spamowania SERPów, to można taką stronę zgłosić poprzez odpowiednie narzędzie jako spam.

Jak Google ocenia strony z dużą chmurą tagów, gdzie są one w nagłówkach H2-H5?
Jak są tylko/w dużej części tagi na stronie, bez jakiegoś sensownego tekstu, to taka praktyka podpada pod upychanie słów kluczowych. Podobnie, jak mielibyśmy na stronie tylko listę kategorii. Jak jest jednak na stronie „jakaś” informacja przydatna dla czytelników (czyli unikalny tekst) – nie ma powodu, aby się obawiać negatywnych konsekwencji ze strony Google.

Gorący temat, o którym napisałem na blogu, a który „rozgrzał do czerwoności” niektórych na PiO :) – czy można wyjść z filtra za nienaturalne linki pisząc, że … to nie my?
Tak, to jest możliwe. Normalnie system radzi sobie z takimi „nienaturalnymi sytuacjami”. Osoby z SQT analizują domenę pod kątem „dziwnych zachowań”. Jeżeli ktoś od lat zdobywa linki z xRumera to zgłoszenie po Pingwinie, że konkurencja mi zaszkodziła według moich informacji nie pomoże. Ale jak ktoś jest dotknięty taką sytuacją jednorazowo/rzadko – takie linki są po prostu ignorowane.

Co z wtyczkami do WordPressa w stylu SEO Smarty Links?
John zaleca … nie używanie takich wtyczek do automatycznego tworzenia odnośników w ten sposób.

Ostatnie pytanie odnosi się też częściowo do zamieszania z Tablica.pl
Więcej w oryginalnym tekscie.

Hangout SEO: zaplecze, bany, subdomeny, linkowanie z sidebar

20 Sierpień 2012 John Mueller Źródło: Karol Dziedzic

Streszczenie odpowiedzi na najciekawsze pytania:
- coraz więcej kumulatorów linków (na naszym podwórku to precelki, katalogi) jest ignorowane jeżeli chodzi o ich linki wychodzące, albo po prostu wycinane. Innymi słowy coraz więcej ogólno-dostępnego zdatnego do napełniania automatem zaplecza zanika

- nie ma żadnych sztywnych ram liczbowych/procentowych w ilości spamowych linków do strony, które grożą oberwaniem karą tzw. z palca

- spamowa subdomena lub podstrona może przyczynić się do spadku domeny głównej

- linki z sidebaru można dobrze zastosować polecając inne strony. Jednak nie jak box nazywa się partnerzy, albo sponsored by i tam umieszczamy „tanie ubezpieczenia Częstochowa”. Wtedy nasza zapleczówka może oberwać (nie karą algorytmiczną tylko manualną – a wycinane są sieci połączeń a nie pojedyncze sztuki) i już nie może przekazywać dalej mocy.

- publikacje prasowe z linkiem zwrotnym (artykuły sponsorowane to podobna kategoria) są ok pod kątem budowania linków o ile robimy to z głową. Chyba, że pójdziemy w skale i zrobimy tysiące zsynonimizowanych tekstów/albo i bez żadnych zmian i puścimy to w świat – wtedy już spamujemy profil linków

- linkowanie ze strony do wikipedii i tym podobnych stron autorytetów nie daje boosta pod kątem rankingu. To tylko udogodnienie dla userów, jeżeli odniesienia są przydatne.

linki pozycjonujace kiedy dzialaja i kiedy przekazuja moc seo

Hangout SEO: Disavov tool, noindex, nowy Pingwin Update, Duplicate Content

17 Sierpień 2012 John Mueller Źródło: Karol Dziedzic

• No-index – to zła nazwa. Tak naprawdę strona tak czy owak jest w indeksie G, jednak nie pojawia się w SERP’ach. Dzieje się tak, ponieważ zależy im na tym, aby złapać linki wychodzące z każdej możliwej strony. Dodatkowo jeżeli mamy linki prowadzące ze stron, które zostały wyindeksowane to nie musimy się już o nie martwić – jednakże jak wrócą z filtra to dalej będą brane pod kątem rankingu

• Jeżeli mamy artykuł z linkiem do nas napisany np w PL na stronie w innym języku – ten link traktowany jest normalnie. Ma taką sama wartość jakby był na stronie w języku w jakim mamy artykuł. Chyba, że to np. zewnętrzne pressel pages to już inna historia.

• Disavov tool w produkcji – żadnej daty na temat jego wypuszczenia nie znamy

• Co do zapowiedzi nowego Pingwina. Długa przerwa pomiędzy wyjściem tego algorytmu na świat, a jego update spowodowana jest wzmożoną pracą na jego produkcją. Ma on poradzić sobie z dużo większą ilością różnego typu dziwnych działań. Jednak w dalszym ciągu dobre strony odpowiednio prowadzone nie powinny być zagrożone

• Utworzenie różnych wersji językowych na różnych domenach i spięcie ich rel=”alternate” nie daje przewagi. Tzn. mamy strony w .com.au i robimy wersję w .co.uk – nie dostajemy boosta na pozycjach w UK. Po prostu wyświetla się brytyjska wersja naszej strony. Jednak warto coś takiego zastosować zwłaszcza pod kątem fraz regionalnych, wtedy wersja dostosowana do odpowiedniego kraju nam pomoże w walce z geolokalizacją

• IP serwera nie daje żadnego boosta. Jedynie jak np. mamy stronę w .com i w GWT nie określimy skąd jesteśmy, nie mamy założonych map ani odpowiednie dane nie są umieszczone na stronie – wtedy dopiero IP serwera jest brane pod uwagę w kwestii geolokalizacji

• Wszystkie strony, zawierające Duplicate Content są indeksowane (np. artykuły prasowe) jednak w zależności od zapytania wyświetla się jedna lub kilka z nich.

Duże i małe litery w URL’ach mają znaczenie – ponieważ każdy z nich indeksowany jest osobno. Może się zdarzyć, że wyświetlą w SERP’ach zobaczymy obydwa – chyba, że treść jest na nich identyczna to wtedy tylko jeden

• Duża ilość Duplcate Content w obrębie jednej strony nie obniża jej rankingu. Powoduje tylko spowolnienie procesu indeksowania i delikatny problem w wyświetlaniu odpowiednich podstron w SERP’ach

• Linkowanie do zdjęć na stronie może przyczynić się do wyświetlania ich wyżej w Google Images

• Jeżeli przywalisz np. Xrummerem w nową domenę (świeży serwis) to może wylecieć z SERP’ów. Stare domeny dobrych marek są niezagrożone

• Zduplikowana treść w katalogach jest wychwytywane algorytmicznie. Syfne mieszane zdania również. Jeżeli wpisy do katalogów są odpowiednio przesynonimizowane wtedy już jest problem – gorzej to wychwycić. Jednakże można za takie cuda o ile nie złapie nas algorytm dostać strzała tzw. z palca.

Hangout SEO:

13 Sierpień 2012 John Mueller Źródło: Karol Dziedzic

• Linki site wide i z sidebar’ów nie są problemem, o ile nie prowadzą one z kiepskich stron i głównie na exact match i jak to się potocznie mówi – „na pierwszy rzut oka widać po co tam są”. Klasyczne linki ze stopki albo sidebara do podnoszenia pozycji są dewaluowane, albo ignorowane w obliczaniu rankingu.

• Czemu strony które powielają treści producentów są wyżej niż faktyczny twórca opisów swoich produktów?
Pojawiają się one w serpach, ponieważ czasem użytkownik chce zobaczyć sklep, w którym może kupić produkt, a nie stronę producenta z opisem samego produktu. Wszystko należy rozpatrzyć szczegółowo w zalezności od frazy (np. konkretny model laptopa)

• Róznica pomiędzy serwerem współdzielonym a serwerem dedykowanym polega na tym, że można oberwać jeżeli na współdzielonym serwerze jest w większości SPAM. Aczkolwiek oczywiście zdaża się to w wyjątkowych okolicznościach.

• Przy dużej ilości błędów np 500 error proces indeksacji jest automatycznie spowalniany – dodatkowo wysyłana jest informacja o dużej ilości znalezionych błędów

• Przy używaniu Google removal tool nie ma znaczenia czy dajecie dostęp robotom do contentu który chcecie usunąć, czy też nie. Warto jednać dać robotom dostęp i na niechcianych stronach ustawić 404

Sporo ciekawych wskazówek przekazał także Matt Cutts podczas ostatniej konferencji SES w San Francisco.

P.S. Przy okazji na moim profilu Google+ mała przestroga przed stosowaniem systemów kupowania linków… oraz głos w dyskusji nt. działania lub nie działania linków nofollow – zapowiada się że będzie to temat kolejnego polskiego Hangouta. Przygotujcie swoje case study :)

Streszczenie 5 Hangoutów SEO - Sporo nowości! by
Cezary Lech
Specjalista SEO, organizator konferencji Search Marketing Day oraz szkoleniowiec, autor wielu artykułów oraz prezentacji z zakresu pozycjonowania, pozycjonowania Long Tail a także innych aspektów marketingu w wyszukiwarkach. Współwłaściciel i dyrektor połączonych komórek SEO MaxROY.com sp. z o.o., GoldPosition.pl. Więcej o Cezarym możesz się dowiedzieć na jego prywatnej stronie i profilu Google+.


Nowszy artykuł:

Starszy artykuł:

Podobne posty:


1 Trackbacków/Pingbacków

  1. SeoStories - podsumowanie tygodnia | Blog Deva Group Kraków | 27-08-2012

17 Komentarzy

  1. Fajny hangout, w sumie nic nowego dla tego kto siedzi w tym, ale inicjatywa na duży plus, chociaż z niektórymi rzeczami bym polemizował:P

  2. Bardzo ciekawa idea.

  3. Julian

    @ebiznes super wartościowy komentarz pozostawiłeś nie mogę. Prawie jak hurtowy spam z SB’ka

  4. Marcin

    Na wczorajszym hangoucie ktoś wspomniał o tym że nowy pingwin ma zwiększyć moc optymalizacji, posiadacie jakieś źródło tej informacji?

  5. Kajetan

    Hej

    jakos tak zaproszenia nie widzialem pleas pamietajcie o mnie nastepnym razem.ogladalem dzis powtorke, troche chaotycznie ale fajnie.

    Cezary a propo nofollow podaj przyklad z wikipedi o ktorym byly testy kuz w 2007 ze daje kopa. Super notka podsumowujaca hangouty.Oby wiecej takich art na sprawnym

    Pozdro

  6. Czy ktoś sprawdzał tekst pod kątem gramatyki i literówek?

  7. I mamy Duplicate Content ;)

  8. Bardzo dobry tekst

  9. Marcin

    Moher miał fajną minę – siedział, słuchał i pozdrawiał fanów ;)

  10. @Zgred – nie do końca, bo jest w . Ale na przyszłość wyrażę zgodę na zacytowanie tylko części streszczenia, więc „problemu” już nie będzie :)

  11. „bo jest w”
    Usunęło mi znacznik, miało byc w nawiasach blockquote :)

  12. Ostatnio sporo jest tych spotkań na Google+, tym bardziej dzięki za zebranie wszystkiego w jednym miejscu. Widzę, że nasz HO ma już ponad 1200 wyświetleń, nieźle!

  13. Dzielenie się wiedzą w zamian za reklamę i budowanie marki. Fajna inicjatywa.

  14. Świetna idea, oby takich więcej. Czekam na kolejne :)

  15. „wszystko zależy od intencji” – przegapiłem jakąś usługę Google, która pozwala czytać w myślach?

  16. 20 tagów na stronie, gdzie jedynym tekstem są często … same tagi wygląda inaczej od takiej samej chmurki na bardzo rozbudowanym serwisie – to logiczne, że w pierwszym przypadku stronka może nawet nie wejść do indeksu, a właściciel w odpowiedzi na wniosek o ponowne rozpatrzenie otrzyma komunikat o niezgodności strony ze Wskazówkami.
    Nie popadajmy w paranoję – Google jest bardziej przewidywalne, niż wielu osobom to się zdaje; trzeba tylko potrafić to dostrzec, a wnioski zastosować w praktyce :)

  17. franek

    nie mogę: „Czasem humar tagów i htmlowe mapy strony (sitemap.html) na stronie są ok, jednak częściej postrzegane są jako spam – wszystko zależy od intencji.” ekstra profesjonalizm, rozmawiajmy ze sobą jak dzieci w przedszkolu…..



Skomentuj