Zapraszamy na 23 szkoleń z e-marketingu i konferencję I ♥ Marketing oraz zakupu magazynu

19 Szkoleń i I ♥ Marketing oraz zakupu magazynu

Matt Cutts: Wszystkie plagi, które spotkają SEO w ciągu najbliższych miesięcy

Nowe wideo Matta Cuttsa, szefa ds. search spam w Google odpowiada na pytania o to, czego powinni spodziewać się webmasterzy i specjaliści SEO w niedalekiej przyszłości w odniesieniu do SEO. Szef ds. walki ze spamem w Google zaczyna swoje wystąpienie od zapewnienia, że uczciwi i praworządni twórcy contentu wysokiej jakości nie powinni się niczego obawiać. Jeśli zatem jesteś uczciwym i praworządnym wydawcą treści, nie czytaj dalej. Chyba że obawiasz się ataku hakerskiego…

Matt poruszył 10 punktów, które mają na celu przybliżyć, w jaki sposób wyszukiwarka pomaga poprawić wyniki wyszukiwania poprzez nagradzanie dobrych stron i karanie spamerów i [tych ohydnych] black-hatowców w wynikach wyszukiwania. Oto 10 punktów, które Matt porusza w filmie:

Penguin

Kolejna generacja aktualizacji Penguin, Penguin 4 (AKA Penguin 2.0), która ma zostać wydana w ciągu najbliższych kilku tygodni, będzie głębsza i spowoduje większe zmiany niż pierwsza wersja Pingwina. Po uruchomieniu aktualizacji należy się zatem spodziewać głosów protestu ze strony społeczności SEO.

Podczas konferencji SearchMarketingDay na pewno będzie wrzało…

Jesteśmy o krok od wydania kolejnej generacji Pingwina. Wewnętrznie nazywamy ją Penguin 2.0. Przypominając – Pingwin to zmiana dotycząca webspamu, jej celem jest wykrycie blackhatowego spamu oraz uderzenie w spammerów. Oczekujemy tym razem większego wpływu i głębszego działania niż w przypadku oryginalnej wersji.

Advertorials

Na początku tego roku, Google zajął się stronami internetowymi, które korzystają z Advertoriali jako sposobu na sztuczne nadmuchiwanie rankingu. Matt Cutts powiedział, Google wkrótce zajmie zdecydowane stanowisko wobec tych, którzy korzystają z advertoriali – stron z artykułami sponsorowanymi, które naruszają wytyczne dla webmasterów.

Jeśli ktoś płaci za reklamę, te reklamy nie powinny wpływać na PageRank.

Zaspamowane zapytania

Choć obecnie zapytania, które są z natury nieco bardziej zaspamowane, takie jak [pay day loans] lub zapytania o treści o tematyce pornograficznej są jakby mniej prawdopodobnym celem działań zespołu Google – Matt Cutts powiedział, wkrótce Google zajmie się i tymi obszarami. Matt zaznaczył, że poprzez takie działanie odpowiada na zapotrzebowanie użytkowników wyszukiwarki skarżących się na spam w wynikach wyszukiwania.

Otrzymaliśmy wiele głosów i skarg – ludzie skarżyli się na wyniki wyszukiwania dla fraz typu „payday loans” na Google.co.uk. Mamy zatem dwie zmiany, które uderzą w tego typu zapytania na różne sposoby. Nie możemy za bardzo powiedzieć jak to działa. ;)

Google dotrze do źródeł

Matt Cutts powiedział, że chce zająć się tymi, którzy są u źródeł, aby zniechęcić spamerów linków i osób korzystających z wartości linków pozyskiwanych ze spamerskich źródeł. Wydaje się, że Google mocniej zajmie sie sieciami linków.

Zamierzamy także dotrzeć do źródeł i obniżyć wartość samym link spammerom – osobom, które spamują na różne sposoby. Mamy kilka pomysłów, które uwidocznią, że tego rodzaju działania są mało efektywne [brzmi groźnie – przyp. red.].

Zaawansowana analiza Linków

Matt obiecuje, że Google poprawi narzędzia analizy linków. Szef zespołu ds web spamu wyjaśnił, że Google jest w początkowej fazie prac nad „wyrafinowanym” oprogramowaniem do analizy linków. Gdy zostanie ono wydane, wyszukiwarka znacznie lepiej „zrozumie linki”.

Mamy sporo danych, które „przemieliliśmy” i obserwujemy jak to działa i czy przynosi odpowiednie owoce.

Zmiany dotyczące zaatakowanych stron

Google zrobił już wiele w kontekście zaatakowanych stron i ich oznaczenia w wynikach wyszukiwania. Google usuwa te strony z wyników wyszukiwania, oznacza potencjalnie zagrożone, a także ostrzega webmasterów przed atakiem. Matt powiedział, Google pracuje nad wdrożeniem nowej funkcji, która pozwoli lepiej wykrywać zhakowane strony. Cutts dodał także, że zespół planuje poprawę komunikacji z webmasterem zaatakowanych stron.

Kontynuujemy także działąnia poświęcone zhakowanym stronom:
1. staramy się lepiej je wykrywać – zamierzamy wydać nową generację wykrywacza takich stron, który będzie działał bardziej kompleksowo
2. Staramy się także lepiej docierać do webmasterów – widzimy bowiem różnicę między zhakowanymi stronami a stronami, które dostarczają malware. Chodzi o to, że gdy już ktoś zauważy, że jego strona została zhakowana, może otworzyć Webmaster Tools i znajdzie się w miejscu, które zawiera informacje na temat postępowania i pomoże wyczyścić zhakowane strony.

Autorytety

Google ma nadzieję poprawić widoczność stron, które oferują wysoką jakość w konkretnej branży.

Staramy się lepiej identyfikować „autorytety na określonym polu” – autorytety medyczne, podróżnicze itp. Staramy się zapewnić takim stronom – odpowiednim dla użytkowników, stron – autorytetów – wyższą ocenę.

Lżejsza Panda

Choć wiele stron odczuło aktualizację Google Panda, Matt Cutts powiedział, że wiele z nich, było na granicy łamania wytycznych Google. Google szuka sposobów, aby „złagodzić” wpływ Pandy, patrząc na inne czynniki jakości, dzięki czemu część stron uniknie szkodliwego wpływu algorytmu Panda.

Zamierzamy pomóc stronom, które zmajdują się w „przejściowej strefie”.

Klastry

Liczba klastrów – wyników wyszukiwań zdominowanych przez jedną domenę ma się zmniejszyć jeszcze w tym roku. Matt Cutts powiedział, że chce, aby wyniki wyszukiwania były jeszcze bardziej zróżnicowane. Jeżeli na pierwszej stronie pojawi się klaster, na kolejnych stronach wyniku wyszukiwania Google pojawienie się klastrów tej samej domeny będzie mniej prawdopodobne.

Otrzymaliśmy także zgłoszenia od osób, które zastanawiały się, dlaczego widzą „klastry” z wynikami jednej domeny. (…) Zajmiemy się tym.

Lepsza komunikacja z webmasterami

Jak zawsze, Google twierdzi, że chce poprawić swoją komunikację z webmasterami. Matt Cutts spodziewa jeszcze bardziej szczegółowych zgłoszeń przyjętych przez Google Webmaster Tools.

Pod koniec tego filmu, Matt Cutts wyjaśnia cel wszystkich tych zmian. Chodzi o zmniejszenie liczby webmasterów korzystających z blackhatowych taktyk, dając mniejszym graczom, korzystającym z White Hatowych działań szanse na wyższą ocenę.

Podsumowując:

Cóż zatem: Jeśli tworzysz wysokiej jakości treść, działając przy tym na polu SEO, nie powinieneś odczuć zmian, nie powinieneś się obawiać o swoje działania. Jeśli działasz na blackhatowych forach, zajmujesz się handlem spamerskiej treści, lato będzie obfitowało w wiele wydarzeń.

„I think there gonna be a lot of fun ;)”

Posłuchaj przemiłego „żandarma Google” na filmie poświęconym zmianom w najbliższych miesiącach:

[youtube]http://www.youtube.com/watch?v=xQmQeKU25zg[/youtube]

Źródło: MattCutts.com, SEL

sprawnymarketing

Rafał Kowalewski

Trener AdWords w MaxROY.com, związany z branżą SEM od 2009 roku. Jako copywriter - miłośnik literatury i pięknego słowa. Jako specjalista reklamy w Google, wyznawca zasady: “Brzydkie reklamy sprzedają najlepiej”.


  • Redakcja

    Przy okazji przypominamy o nowej grupie na Facebooku, w której odpowiadamy na szereg pytań. Dołącz do Twoja firma w Internecie i Social Media.

    Subskrybuj Sprawny.Marketing na Messengerze, dostaniesz informację o każdym nowym artykule lub materiale video

    Wielkimi krokami zbliża się także dwudniowa konferencja I ♥ Marketing & Social Media oraz organizowane przez nas 24 szkolenia z zakresu marketingu.

    Możesz też zamówić prenumeratę drukowanego magazynu sprawny.marketing


    • Robert

      Cel jest taki aby zajmować się tylko swoją stroną – wtedy nie trzeba będzie spamować. Tylko po co było tworzyć Agencje Google lub co z firmami, które mają po 100 lub więcej klientów ?

    • Mariusz Kołacz

      Ciekaw jestem co z tego wyjdzie, jak dotąd, Google promowało spam, warezy, strony niskiej jakości… zobaczymy czy będzie kolejna wtopa.

    • Paweł Rabinek

      Zobaczymy co będzie, nie ma co gdybać. Poprzednie Pingwiny namieszały bardzo dużo. Czy na plus, czy na minus, każdy sam musi ocenić. Myślę, że inżynierowie Google też wyciągnęli jakieś wnioski z poprzednich aktualizacji i podejdą do tematu z świeżym podejściem.

    • Gripek

      Wcale się nie zdziwię, jak w niedługim czasie typowe komercyjne słowa kluczowe znajdujące się w środku tekstu będą uważane za nienaturalne a znacznie zyskają linki w postaci bezpośrednich adresów url, fraz nawigacyjnych czy brandowych (ale o tych już wiadomo od dawna). Czekamy… ^^

    • Tomek

      z Mattem jest jak z politykami przed wyborami – obietnice piękne wszystko trzyma się kupy ale gdy zostają one wprowadzone to życie ludzkie (pozycjonerskie) jest wywrócone do góry nogami , przeciętny użyszkodnik webmaster dostaje po tyłku a cwani blackhatowcy (w realu ludzie bogaci) albo są już w trakcie albo będą wymyślać kolejne działania które pozwolą ominąć algorytm..
      wszystkie te bajki słyszę już od poprzednich kilku aktualizacji…

    • Konstantin

      Rady od Cuttsa śmieszą coraz bardziej.
      – Nie wolno kupować linków bo algo spenalizuje strone -> Nie wolno kupować linków, jednak algorytm poprostu nie uwzględni tych linków bo przecież są ‚płatne’.

      – Pisz fajne teksty żeby ludzie naturalnie linkowali do Twojej strony -> „Wykryliśmy że przy niektórych linkach prowadzących do Twojej witryny są stosowane techniki niezgodne ze wskazówkami Google dla webmasterów”, wieć koniecznie wywal te linki lub dodaj „nofollow” (ale po co komuś takie linki?).

      – Za kupowanie linków do Twojej strony możesz dostać Penguina -> Spamowanie konkurencji nic nie da, przecież to nie działa.. (zapewne SQT widzi ukryty atrybut rel=”konkurecja” i odrazu wykrywa takie linki)

      – Możesz popularyzować swoją witrynę wśród bloggerów -> Ale posić/mówić o tym nie wolno, bo to jest niezgodne z zasadami Google.

      – Dostałeś komunikat o złych linkach? Skorzystaj z disavow. -> Zgdanij, które z 100500 linków są ‚złe’ i wyślij nam pliczek. A teraz należy bardzo mocno uwierzyć, że to pomoże i dopiero wtedy poprawisz pozycje swojej strony…

    • Rafał

      @Konstantin: Normalnie, samodzierżawie wujka Google.

    • Pozycjonerzy24

      Poprzednie wielkie BUM skończyło się u mnie dużym spadkiem aby po 2-3 tygodniach wrócić do normy i tutaj pewnie będzie podobnie. Kupione linki są złe, a więc te które wyświetlają się u nich w reklamach też są złe i powinni sami je przesunąć na ostatnią stronę wyszukiwania ;)

      A tak serio…Poczekajmy to zobaczymy jak to będzie

    • Rafal

      Gadka szmatka. Pingwiny pandy i w wynikach jest taki smietnik, jakiego nie bylo to jedno, pobieraczki wchodzą jak w masło na dość trudne hasła i tak sobie wiszą i to jest właśnie walka ze spamem.

      Stosuj biale zasady i sie niczym nie martw HA HA HA. Dzisiaj mamy czasy pozycjonowania – ale konkurencji! Jeden blast albo tony linkow rotacyjnych i strona jest dead. Dzisiaj nic nie trzeba robic ze swoją stroną! Dzisiaj wystarczy zwalczać konkurencję. Szkoda że wielki guru z tym nic nie zrobi.

    • No to niewiele zmian, wynika z Cuttsa, dobre treści, różnorodność linków, brak podejrzanych linków, dużo różnych i wtedy strona jest ciągle stabilna w wynikach wyszukiwania :)

    • Będzie, co ma być. Google nie rozwiąże problemu spamu od tak. Najłatwiej by było nadać zerową wartość linkom, które Google uzna za spam i tyle. Żadnych kar i banów. Prawdopodobnie nie ma tak dlatego, bo google nie potrafi ocenić, który link jest zły, więc skłóca ludzi ze sobą. Typowe stalinowskie zagrywki.

    • Zamierzamy pomóc stronom, które zmajdują się w „przejściowej strefie”. – literówka jest

    Dodaj komentarz

    Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *