Czy wiesz, czym jest Paragraf 31? Czy doświadczyłeś nagłych spadków pozycji promowanych słów w wynikach wyszukiwania o 30 pozycji w dół? Artykuł próbuje wyjaśnić, dlaczego domeny wpadają w Paragraf 31. Czy jest to ręczna manipulacja wynikami? Do jakich wniosków można dojść, studiując strukturę zatrudnienia Google?
Ostatnio pojawiło się sporo informacji na temat tzw. Pargrafu 31, czyli nagłych stałych spadków pozycji stron w wynikach wyszukiwań o dokładnie 30 pozycji w dół. Zadziwia powszechność filtra oraz jego skuteczność — okazuje się bowiem, iż nie trzeba wyrzucać strony z wyników wyszukiwań, banować czy też nakładać filtr Sandbox (Sandbox to filtr nakładany na pozycjonowane frazy w momencie, gdy webmaster położy za duży nacisk na pozycjonowanie jednego słowa kluczowego).
Wystraczającą karą jest obniżenie pozycji o 30 oczek. Jak się okazuje, to bardzo skutecznie odcina stronę od odwiedzających. Delikatny zabieg ale za to jakże skuteczny. Nie od dziś wiadomo bowiem, iż użytkownicy wyszukiwarek praktycznie nie zagladają dalej niż druga strona wyników wyszukiwań.
Paragraf 31 — hipotezy
Spośród wielu hipotez wysuwanych na polskich i zagranicznych forach internetowych, dominuje kilka najbardziej prawdopodobnych przyczyn nakładania tego filtra:
- paragraf 31 ma zastąpić aktualnie najpopularniejszy filtr tzw. SandBox;
- paragraf 31 jest nowym filterm stosowanym na stronach, które używają tzw. Szarego SEO, czyli jeszcze nie SPAM ale przeoptymalizowana strona, linki i przekierowania w JavaScript lub pozycjonowanie na bardzo dużą ilość trudnych słów kluczowych, co przy naturalnym pozycjonowaniu wydaje się bardzo mało prawdopodone;
- paragrafem 31 jest karane pozycjonerskie zaplecze typu: katalogi stron lub strony do których prowadzą linki tylko z katalogów;
Przyjmując do wiadmości powyższe powody nakładania filtra pojawia się pytanie w jaki sposób algorytm potrafi odróżnić plew od ziarna? Czy oby napewno nakładnie nowego filtra jest wynikiem działania algorytmu ?! A moze Paragraf 31 jest filtrem nakładanym ręcznie przez pracowników Google?
Ręczne robótki Google?
W trakcie poszukiwań odpowiedzi na te pytania natknęłem się na ciekawy post Oleg’a z PiO:
Mam kolegę który pracuje w Holandii w Google Quality Rater. Polega to na tym że się ogląda strony z 200 pierwszych wyników na w miare komercyjne frazy.
Jako ocene stronie się przypisuje :
ratings -> Vital ..Useful.. Relevant … Not Relevant .. Off Topic.. i oprocz tego: Flags : Spam, Directory / Search results, Porn, Malicious, itp.. W holandii placa 14 euro za godzine, mają dość dużo tych ludzi…
Inforamcję tę potwierdzają także zagraniczne źródła, podając więcej, często szokujących szczegółów:
International agents get paid $20 for each hour they refine the search results of Google. SearchBistro.com
Według w/w źródła pracownicy Google Quality Ratings mają swoją specjalną stronę internetową:http://eval.google.com. Film pokazujący zawartość tzw. Secret Lab .
Powyższe wypowiedzi wyraźnie pokazują, iż jest coś na rzeczy… Wielu krytyków tej hipotezy odwołuje się do nierealności zatrudniania tylu ludzi tylko w celu dbania o jakość wyników wyszukiwań. Koronnym argumentem przeciwników takiego rozwiązania jest mnogość stron internetowych podlegających ocenie… mówiac krótko do oceny 100 mln witryn potrzebna była by niewyobrażalna ilość ludzi…
Jednak według danych pochodzących od Google Quality Ratings wiemy, że ich ocenie podlega tylko pierwsze 200 wyników wyszukiwań na typowo komercyjne słowa kluczowe!
Zawęża to ilość stron podlegających ich ocenie do kilku tysięcy w każdej domenie funkcjonalnej!
Powyższa hipoteza jest o tyle prawdopodobna, iż zatrudnienie w Google rośnie wprost proporcjonalnie do wzrostu dochodów firmy.
Ostatnie newsy mówia o tym, iż zatrudnienie w Google przekracza już 9000 osób.
Poszlaki
Przy takiej ilości pracowników, prawdopodobieństwo, iż ledwie mały procent zajmuje się tylko „czyszczeniem” wyników wyszukiwań jest bardzo wysokie. Trzeba także pamiętać, iż aktualnie dużym problemem Google są tzw. MFA (Made For AdSense), czyli strony stworzne wyłącznie w celu wyłudzania kliknięć z pochodzących z reklamy kontekstowej. Strony takie zawierają praktycznie same reklamy! Próbą walki z tym procederem było m.in. wprowadzenie nowego czynnika wpływającego na cenę kliknięć: Quality Score.
Kolejną poszlaką w poczukiwaniu odpowiedzi mogą być zachodnie wyniki wyszukiwań przeglądane przez adres proxy. Dla polskiego użytkownika szokujące mogą się wydawać takie kwiatki jak np.: Wikipedia w TOP 10 na frazę laptopos. W Polskim Google, póki co jest jeszcze nie do pomyślenia.
Pojawia się jednak pytanie: Jeśli cześć wyników prezentowanych przez Google jest faktycznie dziełem inteligentnych istot to kto i za co dokładnie jest odpowiedzialny?
Tak więc okazuje się, iż odpowiedź na pytanie postawione w tytule jest dosyć złożona i konieczne jest zlustrowanie struktury zatrudnienia w Google. Poniżej przedstawiłem uprawnienia poszczególnych stanowisk stworzonych, aby dbać o jakość wyników wszykiwań Google.
Struktura zatrudnienia w Google:
- Pierwszym etatem jest Google Quality Rater. Jak się okazuje, jest on całkowice nieoficjalny. Nabór na te funkcję organizuje międzynarodowa firma Kelly Services, która zajmuje się zatrudnianiem pracowników dla największych firm na świecie.
Uprawnienia Google Quality Raters ograniczają się tylko i wyłącznie do oceniania wyników wyszukiwań. Cała ich praca skupia się na przeglądnięciu pierwszych 200 wyników wyszukiwań dla wskazanego słowa kluczowego a następnie nadwaniu stronom flag, opisów, oceniania powiązania tematycznego, jakości strony oraz unikalności zawartości merytorycznej serwisu. Google Quality Raters mają także możliwość usuwania stron z indeksu wyszukiwarki… Jednak każdy taki przypadek muszą dokładnie uzasadnić w raporcie końcowym. Google Quality Raters nie mają możliwośći nadwania filtru Paragraf 31 !!!
Google Quality Raters biorą pod uwagę oceniając stronę:- Nadają flagi:
- SPAM
- Porno
- Złośliwa/Niebezpieczna (Napastliwe reklamy/Wirusy)
- Czy strona nadaje się dla dzieci ?
- Czy strona jest w całości poświęcona danej tematyce ?
- Czy strona jest podstroną katalogu ?
- Stopień dopasowania do kategorii tematycznej (wpisanego słowa kluczowego)
- Redaktor opisuje także czy jego zdaniem witryna jest do czegoś przydatna – unikalność zwartości merytorcznej strony.
- Generalnie oceniający ma dużo swobody w ocenianiu stron (element uznaniowości jest tu wyjątkowo mocny)
- Nadają flagi:
- Oficjalne zatrudnienie w Google znajdują osoby obsługujące SPAM Report.Jest to osoba odbierająca i analizująca wszelkie zgłoszenia odnośnie SPAM’u w rankingu Google oraz innych naruszeń regulaminu wyszukiwarki. Osoba pracująca na powyższym stanowisku ma m.in. możliwość banowania całych serwisów/domen, oraz jak wszystko wskazuje ma także prawo nadawania filtru Paragraf 31.Jak udał mi się ustalić, filtr ten jest przyznawany przedewszystkim jako forma ostrzeżenia tylko dla witryn wielotematycznych, których podstrony często wyskakują pod wieloma słowami kluczowymi nie związanymi z główną tematyką witryny.Należy pamiętać, iż dla wielu użytkowników Google (osobiście dla mnie także) wyniki wyszukiwania prezentujące podstrony z katalogów są najzwyklejszym SPAM’em. Zaśmiecają one wyniki wyszukiwań przede wszystkim dla mało popularnych fraz przy których słowo kluczowe w tytule wystarcza, by strona była wysoko rankingowana (czasami wpis dodatkowo podlinkowany znajduje się wyżej niż nie jedna w płeni wartościowa strona).
- Ads Quality Rater — pracownik Google o takim tytule zajmuje się czyszczeniem reklam Google AdWords oraz dopszuczaniem stron do programu Google AdSense. Każda strona, która uczestniczy w jednym z tych programów, musi zostać przynajmniej raz odwiedzona przez readakotra Ads Quality Rater. W Polsce taki redaktor ma także możliwość banowania witryn. Na zachodzie: Ads Quality Rater przegląda strony z AdSense’m i ocenia wartość ich treści, przez co modyfikuje stawki za kliknięcia (nowy wskaźnik Quality Score). Detektuje także tzw. MFA – Made For Adsense !
- Quality Rater — osoba, która testuje różne nowe usługi Google, tak więc teoretycznie nie ma wpływu na wyniki wyszukwiań (piszę o tej funkcji, aby rozwiać wątpliwości w zbierzności nazw)
Rysunek 1. Oferta pracy w Google
Powyższe stanowiska są aktualnie w Polsce dosyć słabo obstawione, a mówiąc dokładniej Google Quality Raters nie ma w Polsce wcale. Okazuje się także, iż cała struktura wygląda u nas nieco inaczej.
Tak więc osoby obsługujące SPAM Report mają więc nieco szersze możliwości niż ich koledzy z zachodu wynikające z braków kadrowych. Stosunkowo dużo mamy w kraju Ads Quality Rater odpowiedzialnych za Google AdWords/AdSense — ich obowiązki są także dosyć rozległe i wykraczają poza standardowe dla tego stanowiska. Nabór na polskich Google Quality Raters ruszy najprawdopodobniej w lutym i zapewne zostanie przeprowadzony przez firmę Kelly Services.
Jak wyjść z filtra Google?
Jak wspomniałem wyżej, Paragraf 31 jest filtrem najprawdopodobniej nakładanym przez redaktorów Google Search Quality Team. Udało mi się ustalić, że Paragraf 31 jest przyznawany przede wszystkim jako forma ostrzeżenia tylko dla witryn wielotematycznych, których podstrony często zajmują wysokie pozycje w wynikach wyszukiwarek pod wieloma słowami kluczowymi nie związanymi z główną tematyką witryny.
Śmietnik w wynikach wyszukiwania
Należy pamiętać, iż dla wielu użytkowników Google (osobiście dla mnie także), wyniki wyszukiwania prezentujące podstrony z katalogów są najzwyklejszym, bezwartościowym spamem. Zaśmiecają one wyniki wyszukiwań przede wszystkim dla mało popularnych fraz, przy których, jak się okazuje, słowo kluczowe w tytule wystarcza, by strona była wysoko rankingowana (czasami wpis dodatkowo podlinkowany znajduje się wyżej niż niejedna w pełni wartościowa strona).
Ten fakt potwierdza także roli z forum Pozycjonowanie i Optymalizacja:
…w moich slowach kluczowych, bardzo malo konkurencjne haslo. Na pierwszym miejscu byla moja strona a teraz w top10 sa glównie linki do podstron katalogów a w tych katalogach co druga strona nie dziala, heh i jaka ma z tego korzysc zwykly uzyszkodnik internetu? co z ta polska? co z tym google ?
Wpisy z katalogów zawierające słowo kluczowe w tytule strony + jedno powtórzenie w treści zupełnie wyparły inne zdecydowanie bardziej wartościowe domeny. Zwróćcie uwagę, że na prezentowanych podstronach katalogów nie ma żadnej wartościowej treści, praktycznie same linki! W mojej opinii, to jest główny powód powstania filtru P31 — zaśmiecanie wyników dla niszowych fraz.
Czyżby twórcy skryptów katalogów SEO Friendly strzelili sobie i nam samobójczego gola?!
Wszystko wskazuje na to że tak. W najbliższym czasie cały proces nadawania filtru P31 ma nabrać dużego przyśpieszenia. Czas dany webmasterom na poprawę witryn ma się skrócić do kilku tygodni a po nim ma następować forma kary jaka spotkała m.in. Qlweb.info. Kara polegała na wyindeksowaniu znacznej ilości podstron. Należy się także zastanowić czy Qlweb.info nie stał się tzw. „złym otoczeniem” (ang. bad neighbourhood linking) i czy linkowanie do niego nie obniża wartości naszych katalogów?!
WI777 tak pisze o procesie nakładania Paragrafu 31 na Qlweb.info na forum Pozycjonowanie i Optymalizacja:
Reasumując zaczęło się od „-30 penalty”, teraz następuję odsyłanie do piaskownicy silniej linkowanych fraz oraz co gorsze, powolne i postępujące wyindeksowywanie z indeksu G. które prawdopodobnie zatrzyma się na jakimś stałym i śmiesznie niskim poziomie w porównaniu do niedalekiej przeszłości (niestety zauważyłem przypadki wyindeksowania praktycznie do zera). Taką procedurę prześledziłem dla kilku(nastu) w ten sposób potraktowanych katalogów, a na www.qlweb.info po prostu lepiej to widać
A więć na początek Paragraf 31 a następnie Ban / Sandbox / Wyindeksowywanie?
WI777 w swoim poście na forum Pozycjonowanie i Optymalizacja mówi, iż Google wziął pod swoją opiekę (nadał filtr 31) także inne, kolejne duże katalogi. Najwyraźniej więc cały proces nabiera przyśpieszenia głównie na śmieciowych katalogach wielotematycznych!
Jak wyjść z Parafrafu 31 lub jak go uniknąć?
Odpowiedź jest prosta — możliwie szybko przebudować zawartość witryny tak, aby linki do niej pojawiały się tylko w tematach bezpośrednio powiązanych z główną tematyką witryny lub dodać nową wartościową treść która nie będzie prowokowała użytkowników Google do korzystania z formularza SPAM Report
Skąd webmaster ma wiedzieć, że dostał ostrzeżenie?
Otóż serwisy Google Site Maps oraz Google Analytics ewidentnie powstały po to, aby nawiązać kontakt z webmasterami. Wymienione serwisy prezentują m.in. wyraźne satystyki odwiedzin strony, słowa kluczowe, po których użytkownicy wchodzą na stronę a także statystyki zapytań oraz średnią najwyższą pozycję naszej witryny na wskazane słowa kluczowe. Najprawdopodobniej Google oczekuje od webmasterów, iż będą oni identyfikowali wejścia ze słów nie powiązanych tematycznie i sami podejmą kroki w celu usunięcia swoich stron z wyników wyszukiwań na te frazy.
Potwierdza to m.in post Lordbarta na cytownym już forum:
ręczne, nie ręczne niestety istnieje. u mnie jedna trafiona na wszelkie mozliwe kombinacje haseł, słów etc, podstrony, strona główna. wszystko -30 oczek
a domena niczym sie specjalnie nie wyróżniała, oprócz tego, że na kilkadziesiat haseł miała top5
Co dalej?
W mojej opinii pozycjonerzy powinni skupić się na budowaniu przede wszystkim sensownej merytorycznie treści — nawet jeżeli będzie ona zduplikowana w mniejszym lub większym stopniu to pamiętajmy o misji Google. Być może należy zacząć tworzyć strony zawierające zoptymalizowane artykuły z linkami w treści, jak to ma miejsce m.in. na SEOBiblioteka.pl lub SEO.GoldPosition.pl. Druga możliwość to wartościowe katalogi jednotematyczne.
Filtr jest także bardzo dobrą formą walki ze spamerami. W momencie gdy dostają P31 na domenę główną spadają im dziesiątki tysięcy subdomen optymalizowanych każda pod inne słowo kluczowe. Przy filtrze -30 pozycji Google odcina im niemal zupełnie ruch generowany poprzez SPAM.
W przyszłości przekonamy się, czy powyższe przypuszczenia znajdą potwierdzenie w wynikach zwracanych przez wyszukiwarki.
Więcej informacji
Więcej informacji na ten temat szukajcie na zagranicznych forach a także na oficjalnych stronach oraz w dokumentach publikownych przez Google:
Google Jobs
Google Investor Report
Google Secret Lab
Przypominamy, że wielkimi krokami zbliża się konferencja I ♥ Marketing & Technology, która odbędzie się już 22–24 października 2024 roku oraz organizowane przez nas 33 szkolenia z zakresu marketingu.
Jeśli chcesz być zawsze na bieżąco, zamów prenumeratę magazynu sprawny.marketing!
„Sandbox to filtr nakładany na pozycjonowane frazy w momencie…”
Sandbox z idei miał być nakładany na linki – miał czasowo je osłabiać, nie na frazę. W przypadku zbyt dużej mocy przyłożonej na frazę jest ona filtrowana ale nie jest to sandbox.
Gratuluje CezAre artykuł naprawdę ciekawy – cieszę się że znalazł się ktoś kto wyszukał wszystkie informacje na temat „paragrafu” i zamiescil w 1 miejscu. I mimo iż osobiście uważam P31 za coś bardziej skomplikowanego i tak naprawde fakty o jego dzialaniu dopiero sie pojawią to warto zapoznać się z tym co dotychczas wiemy o nim.
Naprawdę dobry artykuł :)
Ostatnio sam osobiście doświadczyłem zjawiska określonego jako „Paragraf 31” :(
W moim przekonaniu przyszłość Google dla słabych i średnio trudnych haseł będzie taka sama. Dla cięższych haseł filtracja będzie – wszystko rozchodzi się o kasę. Gdy ktoś wchodzi w mocne słowo bez promocji adwordsem google traci tysiące dolarów. Ciężko przyznać, ale google zmierza w stronę Onetu, gdzie Pani Gienia ustawia, co dobre co złe, weryfikuje kto kupił boksy, a kto nie. Pozdrawiam serdecznie.
Michał… Dzięki za sprostowanie – nie znam dokładnie genezy Sandbox’a, mam jednak wrażenie że żaden nazwany przez pozycjonerów filtr nie ma jednej jednoznacznej definicji… Sandbox natomiast jest juz nieco mitycznym filtrem a nazwa jest już rozpoznawana nie tylko przez pozycjonerów.
Co do samego Paragrafu 31 muszę powiedzieć ze wiem już o nim bardzo dużo, na dniach puszczę kolejny artykuł tylko i wyłącznie na temat filtru Paragraf 31… Mam tylko problem ze znalezieniem drugiego źródła potwierdzającego moje dotychczasowe ustalenia…
„(…) osoby obsługujące SPAM Report” – no czy ktokolwiek ten formularz obsługuje to można polemizować biorąc pod uwage brak reakcji na zglaszanie doorwayów.
Wilk… Jak pisałem w artykule polskie stanowiska są cały czas słabo obstawione… Warto jednak dodać że polskie SPAM Report są obsługiwane przez polskich readaktorów tak więc SPAM Reporty można pisać po polsku :)!
„przeoptymalizowana strona” – ROTFL;
polecam sprawdzić w słowniku słowo „optymalizacja”
POX, “przeoptymalizowana strona” w żargonie pozycjonerskim oznacza stronę zoptymalizowana w sposób nienaturalny lub na granicy SPAM’u…
IMO, bardzo nieszczęśliwe określenie – sugeruje, że możliwe jest rozwiązanie lepsze od optymalnego.
@POX: pomijając słuszny argument autora tekstu o żargonie, sprawa z „przeoptymalizowaniem” wcale nie sugeruje, że jest możliwe lepsze rozwiązanie od optymalnego. W języku potocznym dobrym przykładem podobnej konstrukcji jest „przedobrzyć”. Gdy mówimy, że przedobrzyliśmy, nie mamy na myśli, że zrobiliśmy coś jeszcze lepiej – wręcz przeciwnie. Zastosowaliśmy więcej środków niż to było potrzebne.
witam artykul jest na miejscu , lecz uwazam ze za bardzo krytykujecie Google ! :( poza tym moze warto wspomniec iz to co czlowiek stworzyl nie musi byc idealne , a ze sa to liczby i powinno byc to matematyczne i co za tym idzie -idealne- to moze warto tez wziasc pod uwage ze nadal tym czyms kieruje czlek
jak wiadomo omylny ,a co do kasy ze google lubi strone wywalic na 31 – bo nie ma z tego tytulu pieniedzy i potencjalnego klijenta ( jak to czynia w onecie ) to mylicie sie, gdyz co ma do tego pozycja jak i tak wyniki sa przewaznie z boku witryny poza tym amerykanie sa innym narodem i maja inna mentalnosc i wierzcie czy nie ,ale majac tyle pieniedzy co ma Google np. nie wywijali by numer teogo typu ” Paragraf 31. Ręczna manipulacja wynikami w Google ? ” dla paru groszy jesli chdozi o poslkei firmy !
a to ze potegi internetowe sa wysoko to nigdy niklt tego nei zmieni i trzeba sie z tym przyzwyczaic i zyc .
Jak tez napewno slyszeliscie o testowaniu nowej przegladarki przez giganta w ktorej wyniki maja sie ukazywac w pierwszej 20 a nie 10 :( i kazdy nastepny wynik wydluza witryne ukazujac nastepna 10 , wiec be zobaw niedlugo skoncza sie wasze problemy i innych twierdzacych tak jak w tytule postu…
Pozdrawiam chlopaki troche szacunku dla google !
Milego wieczoru
( nie jestem pracownikiem jak tez zadnym szpiegiem z firmy Google ,tylko szanuje ludzka mysl i potege przy odpowiednim jego wykorzystaniu )…
Tomku
po pierwsze:
Filtry w Google istniały od Zawsze i podejrzenia o ręczne nimi sterowanie również. To, że robi się -30 pozcyji zamiast 50% osłabienia linków wynika raczej z konieczności zastosowania coraz więĸszych uproszczeń w algorytmie niż np: walką z MDA.
Tym bardziej że receptą jedyną na MDA jest Ban.
Po drugie: wydjae mi się niewłaściwe używanie sforumłowania „filtr Sandbox” – jak dla mnie są to dwa różne pojęcia. Fitr to filtr – osłabienie pozycji strony na daną frazy z różnych przyczyn (np: za mocne i za szybkie linkowanie). Fitr zakłądany jest na daną frazę na określoną stronę/podstronę.
Sandbox to fitr totalny zakładany na całą domenę na wszytsko – czyli nawet prawie treść ze strony w SERPACH pokaże się na końcu wyników (lub poza 1000)
Przepraszam z a Tomku – to tekst pana Cezarego Lecha
Witam ponownie no jest w tym jakis sek ,lecz ja nadal uważam ,ze google jak juz wykona tego 31 filtru :) to jesli strony sa naprawde wartosciowe to za jakis czas witryna wraca i co najlepsze jeszcze wyzej niz byla – i juz bardzo dlugo pozostaje na tej pozycji wahania sa 1-2 lokaty .Twierdzenie moje jest z mojego doswiadczenia oparte i podparte doswiadczeniami expertów w dziedzinie optymalizacji w przeglądarkach on-line Poza tym krzywdzace na pewno jest to iz spada o tyle pozycji bo tez to doswiadczylem :( tam raczej juz ludzie nie zagladają ,lecz tak jak juz pisalem google ma to sposób i napewno w jablizszym czasie wprowadzi to w obecna .Sadze ze wtedy wiecej ludzi dotrze do bardziej wartosciowych witryn niz w pierwszej 10- jak to czesto bywa…Pozdrawiam
Marcinie i Tomku… Pozwólcie że nie będę odnosił się do kwestii związanych z nazewnictwem wszelakich filtrów stosowanych przez Google, jest to temat drugorzędny, który swoją drogą mam zamiar rozwinąć w najbliższym czasie.
Marcin powiedz proszę co masz na myśli używając skrótu MDA ?
Czy nie chodziło Ci czasem o MFA (Made For AdSense)?!
Bardzo ciekawy artykuł, dowiedziałem się sporo nowych rzeczy. Sam bezpośrednio nie zajmuję się pozycjonowaniem, ale dobrze jest wiedzieć co jak funkcjonuje.
Tak MFA to (Made for Adsense)
Pewnie Was zainteresuje tez zrzut, ktory ukazal sie na blogoscoped:
http://blogoscoped.com/files/gg-score.png
jak zdobyc taka prace? ;)
Odpowiedź znajduje się w artykule:
Pozdrawiam
Cez
@Zosia Tymkiewicz:
Page Rank twojej strony wynosi: 1
Odsyłam jednak do artykułów:
https://www.sprawnymarketing.pl/artykuly/page-rank/
https://www.sprawnymarketing.pl/artykuly/pagerank/
Duża ilość stron na pierwszych miejscach jest przeładowana słowami kluczowymi na daną frazę i utrzymują top 10!!!!!!
No i paragraf 31 dotknął też biednych studentów dla których pozycja w wyszukiwarce jest bardzo ważna, a niestety ta "nagroda" od Google nam w tym nie pomaga, bo pozycja w wyszukiwarce to 50% oceny z zaliczenia przedmiotu Marketing w Internecie, punkty są przyznawane 50pkt za 1 pozycje i stopniowo w dół, aż do 50 pozycji, a mówiąc dalej nasz blog jest o konkursie "Google online marketing challenge" zorganizowanym przez samego Google, więc o co c'mon?? widać, że Google nie zawraca uwagi na jaką treść przyznaje ten paragraf.. Mam nadzieję, że przed samym zaliczeniem wrócimy do łask wyszukiwarki Google.
Pozdrawiam
mrAł
Naprawdę dobry artykuł.
obserwuję ostatnio spamowanie wyników wyszukiwania na frazy opony i felgi, gdzie na wysokich miejscach pojawiają podstrony katalogów. Nie wiem jaki cel ma taki zabieg, chyba że ktoś w ten sposób chce udowodnić swoje możliwości pozycjonerskie.
jak to wygląda ze stronami podejrzewanymi o niebezpieczne? ostatnio, spotkało to nas i do końca nie wiem z jakiej przyczyny?
Za takie działania google powinno być pozwane do sądu i zapłacić słone kary i odszkodowania. Za to że powstają takie sztuczne kagańce jesteśmy winni wszyscy a zwłaszcza Ci co płaca za reklamy AdWords. W ten sposób umacniamy tylko pozycję monopolisty i zacieśniamy sobie sami sznur na szyi. Ale człowiek to już taka słaba istota. Zawsze musi być przez kogoś trzymany za jaja i zawsze sam robi we własne gniazdo, truje własne środowisko, niszczy wszystko to dzięki czemu żyje. Człowiek to najgłupsza istota na ziemi. Ale już niedługo to się skończy. Jesteśmy na dobrej drodze.
A pozycjonowanie = zaśmiecanie internetu. Słynne powiedzenie, że dobra domena to jak adres na Marszałkowskiej jest już nieprawdziwe. Dzięki sztucznemu pozycjonowaniu dobra domena może być na szarym końcu. A powinna być na pierwszej pozycji zawsze, niezależnie od pozycjonowania. Ale przecież kto by wtedy zarobił? Kasa, kasa i jeszcze raz kasa. O to chodzi w tym wszystkim.
ciekawe :D
Takie działania Google naruszają prawa konsumentów. Stosowanie systemu kar wedle własnego uznania, które nie są nigdzie uregulowane, użytkownik nie ma wiedzy co go spotkało i za co oraz ile kara będzie trwała, nie ma możliwości podważenia takiej decyzji uznaniowej. To jest bezprawie.
Google nakłada Paragraf 31 także za działania, które powodują, że użytkownik nie będzie chciał korzystać z AdWords i płacić, skoro na swojej stronie będzie miał treści wywołujące stronę pod wieloma hasłami. Żeby dostać filtra wystarczy więc wstawić na stronie coś w rodzaju (jeśli sprzedawałbym przykładowo arbuzy): arbuz Warszawa (opisy), arbuz Kraków (opisy)… itd. ze 30 miast. I filter murowany.
Tak zachowuje się tylko monopolista i dyktator jakim jest właśnie G. Czekam z niecierpliwością na jego upadek. Bo na wszystko przychodzi kres.