SprawnyMarketing.pl - Skuteczny i ekonomiczny marketing internetowy

Misją serwisu jest tworzenie społeczności wokół idei sprawnego marketingu internetowego. Dzielimy się wiedzą, szkolimy, udostępniamy narzędzia.

        


Link Bulding – różnicowanie parametrów linków

 | Autor: | Google+ | mail




W ostatnim artykule na Sprawny Marketing pt. „Linki do naszej strony – czy nofollow jest coś warte?” Piotr Kiper zwrócił uwagę „że posiadanie 100% linków dofollow do strony może zostać odebrane przez algorytm Google jako próba manipulacji wynikami i tym samym doprowadzić do obniżenia strony w rankingu” w dzisiejszym artykule, odniosę się (po długiej przerwie) do kwestii naturalności linków (backlink profile) prowadzących do naszej strony.



Podczas czerwcowego Search Marketing Day, Ravzan Gavrilas zaprezentował narzędzie Cognitive SEO, którego wszystkie funkcjonalności sprowadzają się do analizy dziesiątek parametrów dotyczących tylko i wyłącznie linków prowadzących do witryny! To narzędzie pozwala nam bardzo z bardzo dużym prawdopodobienstwem określić czy nasz backlink profile wygląda naturalnie czy nie, zachęcam do testowania… wkrótce możecie liczyć na szerszy opis tego narzędzia na Sprawnym.

Większość branży SEO zapewne pamięta powtarzane jak mantra: Różnicuj anchor text!
Czas leci do przodu, zmienia się Google, zmienia się SEO.
Jednak najważniejsza zasada Link Buidlingu: Różnorodność! Pozostaje niezmienna…

Na co zwracać uwagę pozyskując linki?

  • IP
  • DNS
  • Whois
  • Rejestrant
  • Skrypt zaplecza

…to kilka pierwszych i podstawowych elementów o których większość twórców prywatnych sieci blogów, precli lub sieci katalogów zdaje się zapomniała! Robiłem ostatnio większy przegląd rynku i niestety sytuacje podsumować można krótko: tworzone sieci są słabe, skupiają się na ilości domen, prędzej czy później każdy właściciel ulega i zaczyna dodawać co popadnie na niskiej jakości tekstach. Nie wspominając o wątku TR linków z tych stron. Zachęcam do sprawdzenia ogólno dostępnych sieci pod kątem pięciu powyższych czynników i przy okazji lekturę artykułu: Detecting undetectble link networks.

Link Building = Różnorodność

Podobnie mało naturalnie wygląda sytuacja kiedy za bardzo skupiamy się na jednym skalowalnym i łatwym źródle linków… jak np. katalogi, precle, profile z for lub linki z SWLa i gdy ilość linków z jednego źródła wyraźnie dominuje w baclink profile strony! Zastanówcie się ile z pozycjonowanych przez was stron ma obiektywnie ponad 50% linków z katalogów? Narzędzia takie jak omniiAdd, Adder czy SWLe znacząco ułatwiają budowanie linków i to jest jedna z przyczyn dla których na forach pojawiają się wątki w stylu „dodałem kilkasetlinków a strona ani drgnęła” czasami mamy do czynienia ze skrajnymi sytuacjami kiedy usunięcie znacznej części linków (np. z SWLa) powoduje wzrost pozycji strony!

Budując dobry, naturalny backlink profile witryny zdobywaj także takie linki jak:

  • linki site wide oraz pojedyńcze linki z domeny
  • linki ze strony głównej oraz z głębokich podstron
  • link z grafiki oraz link z dokładnym anchor tekstem
  • linki z dłuższym wielowyrazowym anchor tekstem – Long Anchor Text Link Building
  • linki z plików .pdf, .doc, .csv itp.
  • link z podstrony do podstrony
  • link ze stron o wysokim oraz bardzo niskim PageRank
  • linki z blogów, katalogów, z profili, precli, z notek Public Relations
  • linki ze stron polskich oraz zagranicznych
  • linki ze stron o wysokim oraz niskim Trust Rank
  • linki ze stopki, z tresci artykułu, z sidebaru, z menu/topu strony
  • linki z różnego rodzaju skryptów, (WordPress, Drupal, Joomla, itp. mniejsze CMSy i autorskie skrypty)
  • linki dofollow oraz… także linki nofollow!

Pamiętaj, szczególnie w świetle ostatniego artykułu Piotra – każdy link się liczy!


Po więcej zapraszamy na szkolenie SEO PRO: Link Buidilng podczas Search Marketing Week już 14 Listopada 2011!

Polecam także lekturę artykułu: Jak google rozpoznaje spamerksie linki… oraz odsyłam do mojej prezentacji z SilesiaSEM pt.:„Nowe czynniki decydujące o mocy linków SEO”:

Grafika pochodzi z whollysblog.com

Link Bulding - różnicowanie parametrów linków by 
Cezary Lech
Specjalista SEO, organizator konferencji Search Marketing Day oraz szkoleniowiec, autor wielu artykułów oraz prezentacji z zakresu pozycjonowania, pozycjonowania Long Tail a także innych aspektów marketingu w wyszukiwarkach. Współwłaściciel i dyrektor połączonych komórek SEO MaxROY.com sp. z o.o., GoldPosition.pl. Więcej o Cezarym możesz się dowiedzieć na jego prywatnej stronie i profilu Google+.


Nowszy artykuł:

Starszy artykuł:

Podobne posty:


4 Trackbacków/Pingbacków

  1. Historia polskiej branży SEO! :D • Artykuły • SprawnyMarketing.pl | 09-11-2011
  2. Pakiet startowy w SEO (pozycjonowanie) | Web Metrics | 21-05-2013
  3. Pakiet startowy w SEO (pozycjonowanie) | Web Metrics | 28-09-2013
  4. Pakiet startowy w SEO (pozycjonowanie) | Krzysztof Bernacki | 22-03-2014

31 Komentarzy

  1. Dosyc dobry art. Nie zgodze sie z „linki z różnego rodzaju skryptów, (WordPress, Drupal, Joomla, itp. mniejsze CMSy i autorskie skrypty)” – dla wyszukiwarki to nie powinno miec absolutnie zadnego znaczenia i w duzej mierze jest niewykrywalne.

  2. Wyszukiwarka doskonale rozpoznaje większość popularnych skryptów CMSów i for z prostej przyczyny – problem hackowania oraz spamowania! Często poszczególne wersje WP czy innych silników są wyjątkowo podatne na ataki, spam itp. myślę że Google’owi zależy aby te informacjie agregować i np. zaniżyć wartość linków wychodzacych ze strony, które powstały np. po aktualizacji skryptu do wersji 2.9 która okazała się bardzo dziurawa itp.
    W tej chwili już nawet Google Webmaster Tools przypomina o konieczności aktualizacji do nowszej wersji skryptu.

  3. Mnie tam nie przypomina, moze jak ktos ma niezabezpieczony skrypt i zostawia w headerze info o wersji to przypomina. Statystycznie bardzo malo skryptow jest aktualizowanych na biezaco – Google by sobie strzelilo w stope, je filtrujac.
    Maja inne mechanizmy – wykrywaja shackowane strony po kilku dniach, co jest dosyc oczywiste. Sam mialem wiele takich przypadkow na instalacjach WP, a to o czym mowisz slysze pierwszy raz i wydaje mi sie wysoce nierealne.

  4. Artykuł otwierający oczy. Dzięki! :)

  5. Rejestracja na cognitiveseo.com jest tylko na zaproszenie, więc z testami trzeba będzie poczekać… :/

  6. Bardzo dobry artykuł, aczkolwiek nie mogę się z nim zgodzić w 100%. Różnorodność zawsze jest w cenie, ale „obiektywnie” testowałem strony linkowane wyłącznie z jednego rodzaju katalogów i frazy średnie oraz łatwe wchodzą w TOP na długo. Zawsze sukcesu dopatrywałem w optymalizacji strony pozycjonowanej. Dobrze zoptymalizowana strona dopalona swlem rotacyjnym (po procesie katalogowania) również wbija w TOP5. Żeby nie było tylko tak różowo – potwierdzam, że w PEWNYCH OKOLICZNOŚCIACH zdjęcie punktów daje wzrosty.

  7. Jest jeszcze jedna ciekawa rzecz którą na pewno można dodać, którą także można zaobserwować:

    Izomorfizm prac seo z innymi witrynami – tzn. jeżeli jest, to mimo zachowania wszystkich proporcji które podałeś, może powodować także brak efektów, powiedziałbym ze to jeden z abstrakcyjnych czynników.

    pozdrawiam – sławek chojnacki

  8. Izomorfizm seo – nie mylić ze złym zapleczem, spamem itd.

  9. Artykuł otwierający oczy, wielkie dzięki.

  10. Qbexus

    A wszystko kręci się w koło starej znanej prawdy. Link to link byle dużo i z różnych miejsc.

  11. Dokładnie tak, gdzie się da powinno się zdobywać linki. Uważam, że im większa różnorodność tym lepiej.

  12. Hejsztagenn

    Dziękować, co prawda oczu nie otworzyło ale potrzebowałem tego potwierdzenia. Dotychczas tak działałem, widząc jednocześnie że jestem w mniejszości z takim podejściem. Zaczynało się we mnie rodzić podejrzenie, że przesadzam z tą dywersyfikacją.

  13. Dzień bardzo dobry,
    Nie piszcie, że Google zaczyna nie lubić WordPressa, bo nie ma na to żadnych konkretnych dowodów. Czytając takie domniemania, część osób może dojść do wniosku, że lepiej prowadzić bloga lub całe zaplecze na czymś innym.
    To, że mnóstwo osób używa WP do budowy spamerskiego zaplecza (zasysacze treści, miksery, autoRSSy, itp.) nie znaczy, że Google miałoby przestać lubić akurat ten skrypt. Nie miałoby to najmniejszego sensu, ponieważ zdecydowana większość najwartościowszych blogów w całej Sieci stoi na WP. Miałyby stracić z powodu spamerów? Absurd.
    Po prostu trzeba wszystko dywersyfikować. I tyle. A większość zapomina o najważniejszej „dywersyfikacji”: wartościowej i unikalnej treści. A potem się dziwią, że ich seo-spam-blogi z miksowaną tysięczny raz treścią lecą na łeb na szyję. I szukają przyczyny np. w tym, że mają to postawione na WP. I gdyby mieli inny skrypt, to pewnie byłoby ok, tak? Nonsens.
    Pozdrawiam z uśmiechem ;-)
    Paweł Krzyworączka

  14. Myślę, że problem nie leży w tym co to za skrypt ale w tym jaka jakość treści kryje się pod daną domeną. Jak ktoś stawia na wordpresie śmieciówki, z których 3/4 zostanie zbanowanych przez Google, to nie oznacza, że Google przestało lubić wordpressa.

  15. Według załączonego filmu dochodze do wniosku iż agorytm Google Panda jest całkowitym zaprzeceniem poprzedniego silnika Google Cofeine.

  16. oli

    Ciekawy i przydatny artykuł, szczególnie w połączeniu z niedawnym tekstem o znaczeniu linków nofollow. Dobra lektura.

  17. Kreatywność, zaangażowanie i trzymanie ręki na pulsie. To sprawdza się zawsze niezależnie od branży.

  18. efendi

    Co to za firma w 9L30? Nie mogę zrozumieć.

  19. Kolejny ciekawy artykuł na „sprawnym”. Warto było się zapoznać.
    P.S
    Po ile taka butelka soku ;) ?

  20. Sok jak sok … ale linki są cenne – każdy, z każdej strony i nieważne czy DF czy NF – plusikujemy nawet najmniejszymi linkami.

  21. Artykuł mi się podoba, ponieważ porusza wiele z istotnych elementów Linkbuilding, w sposób konkretny i rzeczowy. Absolutnie trafna jest lista „…Budując dobry, naturalny backlink…” którą uzupełniłbym o następujące elementy:
    - Linki ze stron rządowych, instytucji państwowych (np. domain *.gov),
    - Linki ze stron uniwersytetów i szkół wyższych,
    Ostatnio porównałem, na zlecenie firmy zajmującej się międzynarodowo marketingiem, parę stron branżowych, które miały bardzo podobne albo prawie identyczne następujące faktory: PageRank, wiek domeny, stan techniczny, zawartość merytoryczną oraz podobną ilość backlinks. Po analizie okazało się, że w Googlu najwyżej stała strona, ktąra posiadała najbardziej zróżnicowane rozsianie backlinks, a zaraz w następnej kolejności ich źródło IP. Taki jest wynik analizy SEo na dzień dzisiejszy.

  22. Grzegorz (gielo) Adamiec

    Nie wiem jak wy podchodzicie do Google ale ja uważam, że jeśli Google ma możliwość wprowadzenia czegoś co przyczyni się do ograniczenia spamu i polepszenia wyników wyszukiwania to na pewno to wykorzysta. Nie widzę powodów aby Google nie brało pod uwagę tych parametrów o jakich pisał Czarek. Skrypt ? Przecież w większości popularnych skryptów informacje o nim i jego wersji są zawarte w kodzie strony bądź stopkach więc wychwycić to nie jest problemem. Naprawdę uważacie, że Google nie ukara strony do jakiej prowadzi 1000 linków wyłącznie z seokatalogu ? PR ?, czy strona do której prowadzą wyłącznie linki z pr powyżej 5 liczone w setkach bezapelacyjnie może liczyć zawsze na wysokie pozycje ? To samo z innymi parametrami. Odnośnie samego PR jeszcze to nie raz się już wypowiadałem, że ma on znaczenie marginalne i nie gwarantuje w żaden sposób wysokich pozycji. Do tej całej listy o jakiej wspomniał Czarek dorzuciłbym jeszcze linki na portalach społecznościowych jak FB cy G+, Tweeter itp. Co z tego, że mają Nofollow, ważne że mają wysoki TR te portale, to po pierwsze. Po drugie uważam, że Google już albo w najbliższym czasie zacznie bardziej promować portale których użytkownicy sami sobie polecają na najpopularniejszych serwisach społecznościowych po za samym Trust Rank tych portali. Że da się manipulować tym ? Jasne, ale da się i wykrywać takie manipulacje, bo jakie jest prawdopodobieństwo, że 100 osób w tej samej minucie zamieści link na FB do tej samej strony ? Szczególnie gdy przez kolejne kilka godzin lub dni żaden nowy się nie pokaże.

  23. Plusikujemy linkami, ale co z tymi linkami gorszej jakości ? One też „plusuja” czy nie bardzo ?

  24. „Odnośnie samego PR jeszcze to nie raz się już wypowiadałem, że ma on znaczenie marginalne i nie gwarantuje w żaden sposób wysokich pozycji.”

    O ile w ogóle ma jakiś wpływ coraz więcej mam wątpliwości że to ma znaczenie. Na jednym z blogów miałem spadek PR i jednocześnie w tym samym czasie wzrost wejść z wyszukiwarki o 15% – wszystko poszło do góry z wyjątkiem tego nieszczęsnego PRu. Zaś strony które dostały awans z PR0 do PR2 coś tam zyskały na pozycjach ale to wszystko w granicach błędu 1% wzrost wejść z wyszukiwarki. Więc PR sam już nie wiem do czego ma służyć, jeśli nie widzę żadnych logicznych i regularnych zależności pomiędzy pozycją a wysokością PR samej strony oraz stron/podstron na których znajdują się linki.

  25. artykuł widzę wyjaśnia istotę budowy linków zgodnie z zasadą naturalnego linkowania :) jeśli ktoś tego nie rozumiał to gratulacje

  26. Linkami gorszej jakości też „plusikujemy”, tylko nie jako jedynym i przeważającym „typem” linków.

  27. Bardzo przydatny artykuł. Czytałem już gdzieś, że linki powinny być różnorodne ale tutaj mamy podsumowane różne aspekty tej różnorodności. Nie zdawałem sobie sprawy z tego, że dobrze jest aż tak różnicować linki …

  28. Zasadniczo nic nowego… choć ładnie ujęte w syntetyczny sposób.

    Dodałbym jeszcze na końcu artykułu, że każdy link się liczy…. a niektóre nawet na minus.

  29. Sporo się zmieniło od czasu publikacji artykułu. Obecnie aktualne są następujące parametry:
    dywersyfikacja: anchor tekstu (brand tekst + odmiana słów kluczowych)
    linków (nofollow, dofollow, goły URL)
    Ale najważniejsze – brak linków ze śmieciowych stron z niewielkim TR.
    Ten ostatni parametr to odpowiedz G na stosowanie XR.
    I słusznie. Najwyższy czas. Bo pracy trzeba poświęcić naprawdę mnóstwo by się pozycjonować naturalnie, a efektów nie widać, bo konkurencja używa niedozwolonych zabawek.

  30. Dzięki wszystkim za informacje. Ponoć optymalnie, gdy goły URL to około 50% całego profilu linków (czuję pismo nosem, że pozycje spadają mi z powodu zbyt małej liczby anchorów z gołym URL-em), 30% wpisów po 1 backlinku na stronie, 10% z 2 linkami do różnych stron (np. strona główna + podstrona) i 10% z 3 linkami do różnych (podstron lub strony głównej i podstron).

    pozdro SEO-wcy,

    Daniel

  31. Tak różnicowanie linków jest ważne i to nie od dzisiaj :) Jednak odniosę się do samego nofollow. Otóż zauważyłem, że strony do których prowadza zróżnicowane linki z atrybutem nofollow oprócz linków dofollow + linki z wysokim TR są jakby bardziej odporne na filtry w Google.



Skomentuj