{"id":5378,"date":"2010-10-27T16:48:02","date_gmt":"2010-10-27T14:48:02","guid":{"rendered":"http:\/\/sprawnymarketing.pl\/?p=5378"},"modified":"2022-12-29T00:42:18","modified_gmt":"2022-12-28T23:42:18","slug":"robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz","status":"publish","type":"post","link":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/","title":{"rendered":"Robots.txt: czego nie robi\u0107? Steruj Googlebotem jak chcesz!"},"content":{"rendered":"<p>Istniej\u0105 w internecie popularne witryny, z olbrzymi\u0105 liczb\u0105 link\u00f3w przychodz\u0105cych, kt\u00f3rych <strong>podstrony s\u0105 blokowane na poziomie pliku robots.txt przed robotami wyszukiwarek<\/strong>, wyrz\u0105dzaj\u0105c ich pozycjonowaniu du\u017c\u0105 krzywd\u0119. Czy twoja witryna tak\u017ce ma b\u0142\u0119dy w robots.txt? Z poni\u017cszego tekstu dowiesz si\u0119 jak roboty wyszukiwarek traktuj\u0105 zablokowane w robots.txt pliki, <strong>po\u015bmiejesz si\u0119 z webmaster\u00f3w znanych witryn<\/strong> i pope\u0142nionych przez nich b\u0142\u0119d\u00f3w oraz dowiesz si\u0119, <strong>jak samemu takich b\u0142\u0119d\u00f3w nie pope\u0142ni\u0107<\/strong>.<\/p>\n<p><!--more--><br \/>\nUstanowiony w 1994 roku protok\u00f3\u0142 Robots Exclusion Protocol, u\u017cywany m.in. w plikach<a href=\"http:\/\/www.robotstxt.org\/\"> robots.txt<\/a> mia\u0142 s\u0142u\u017cy\u0107 webmasterom do okre\u015blania, kt\u00f3re pliki lub katalogi witryny udost\u0119pnia\u0107 robotom wyszukiwarek, a kt\u00f3re nie. Roboty wi\u0119kszo\u015bci wyszukiwarek wci\u0105\u017c w istocie s\u0142uchaj\u0105 zawartych tam polece\u0144, <strong>ale tylko do pewnego stopnia. <\/strong><\/p>\n<h2>Wykluczone podstrony widoczne w SERP-ach<\/h2>\n<p>Nawet te boty, kt\u00f3re generalnie s\u0105 pos\u0142uszne poleceniom z plik\u00f3w robots.tst (roboty Google&#8217;a i innych du\u017cych wyszukiwarek), cho\u0107 nie zaindeksuj\u0105 tre\u015bci wykluczonej podstrony, <strong>mog\u0105 i tak umie\u015bci\u0107 j\u0105 w indeksie<\/strong>. Wszyscy widujemy takie &#8222;cz\u0105stkowe&#8221; linki w wynikach wyszukiwania. Poni\u017cej dwa przyk\u0142ady podstron, kt\u00f3re wykluczono z indeksu na poziomie pliku robots.txt, a kt\u00f3re mimo to widoczne s\u0105 w Google.<\/p>\n<h3>Strona logowania Cisco<\/h3>\n<p>Zaznaczona na poni\u017cszym zrzucie podstrona logowania <a href=\"http:\/\/www.cisco.com\/\" class=\"broken_link\">witryny Cisco<\/a> zosta\u0142a zablokowana w robots.txt, a <strong>mimo to Google wy\u015bwietla jej okrojony link<\/strong> na drugiej stronie wynik\u00f3w dla zapytania &#8222;login&#8221;. Na li\u015bcie wynik\u00f3w wida\u0107 zar\u00f3wno URL podstrony, jak i jej tag [title]. Brakuje za to tre\u015bci metatagu [description] lub fragmentu tekstu z podstrony.<\/p>\n<p><img decoding=\"async\" class=\"alignnone size-large wp-image-5380\" title=\"niezaindeksowana a widoczna w SERP-ach podstrona logowania Cisco\" src=\"http:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/1zaindeksowana-a-widoczna-w-serpach-podstrona-logowania-cisco-530x247.jpg\" alt=\"niezaindeksowana a widoczna w SERP-ach podstrona logowania Cisco\" width=\"530\" height=\"247\" srcset=\"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/1zaindeksowana-a-widoczna-w-serpach-podstrona-logowania-cisco-530x247.jpg 530w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/1zaindeksowana-a-widoczna-w-serpach-podstrona-logowania-cisco-300x140.jpg 300w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/1zaindeksowana-a-widoczna-w-serpach-podstrona-logowania-cisco.jpg 600w\" sizes=\"(max-width: 530px) 100vw, 530px\" \/><\/p>\n<h3>Strona &#8222;next blog&#8221; WordPress.com<\/h3>\n<p>Jedn\u0105 z najpopularniejszych podstron witryny WordPress.com jest www.wordpress.com\/next. Podstrona ta jest zablokowana w robots.txt, a mimo to pojawia si\u0119 w Google na czwartym miejscu dla zapytania &#8222;next blog&#8221;.<\/p>\n<p><img decoding=\"async\" class=\"alignnone size-large wp-image-5381\" title=\"podstrona wyci\u0119ta w robots.txt, a mimo to widoczna w SERP-ach\" src=\"http:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/2next-blog-serp1-530x303.jpg\" alt=\"podstrona wyci\u0119ta w robots.txt, a mimo to widoczna w SERP-ach\" width=\"530\" height=\"303\" srcset=\"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/2next-blog-serp1-530x303.jpg 530w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/2next-blog-serp1-300x172.jpg 300w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/2next-blog-serp1.jpg 600w\" sizes=\"(max-width: 530px) 100vw, 530px\" \/><\/p>\n<p>Jak widzisz, <strong>umieszczenie podstrony w pliku robots.txt nie wystarczy by powstrzyma\u0107 Google&#8217;a przed wy\u015bwietleniem jej na li\u015bcie wynik\u00f3w. <\/strong><\/p>\n<h2>Robots.txt mo\u017ce marnotrawi\u0107 przychodz\u0105cy link-juice<\/h2>\n<p>Probelm z plikiem robots.txt jest taki, \u017ce nie tylko pozostaje on nieefektywny w blokowaniu indeksacji podstron, ale mo\u017ce przyczynia\u0107 si\u0119 do <strong>marnowania pageranku<\/strong> p\u0142yn\u0105cego do naszej witryny.<\/p>\n<p>Kiedy zablokujesz indeksowanie podstrony w pliku robots.txt, wyszukiwarki nie zaindeksuj\u0105 tre\u015bci, <strong>W TYM LINK\u00d3W<\/strong>, z tej podstrony. Oznacza to, \u017ce je\u015bli do podstrony przychodz\u0105 jakie\u015b linki, to id\u0105cy za nimi link juice nie przep\u0142ynie ju\u017c dalej, utknie. <strong>Tworzysz \u015blep\u0105 uliczk\u0119. <\/strong><\/p>\n<p><img decoding=\"async\" class=\"alignnone size-full wp-image-5382\" title=\"Googlebot t\u0142umaczy niemo\u017cno\u015b\u0107 przekazania link juice z podstrony wykluczonej w robots.txt\" src=\"http:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/3robots-txt-blocks-link-juic.gif\" alt=\"Googlebot t\u0142umaczy niemo\u017cno\u015b\u0107 przekazania link juice z podstrony wykluczonej w robots.txt\" width=\"450\" height=\"306\" srcset=\"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/3robots-txt-blocks-link-juic.gif 450w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/3robots-txt-blocks-link-juic-300x204.gif 300w\" sizes=\"(max-width: 450px) 100vw, 450px\" \/><\/p>\n<p>(je\u015bli powy\u017cszy obrazek wygl\u0105da znajomo, to dlatego, \u017ce w istocie <a href=\"http:\/\/www.seomoz.org\/blog\/headsmacking-tip-13-dont-accidentally-block-link-juice-with-robotstxt\">widzia\u0142e\u015b go ju\u017c wcze\u015bniej<\/a>. Dzi\u0119ki, Rand!)<\/p>\n<p>Oczywi\u015bcie linki przychodz\u0105ce do zablokowanej podstrony <strong>przynios\u0105 pewne korzy\u015bci ca\u0142ej witrynie<\/strong>, jednak ich potencja\u0142 nie zostanie wykorzystany w ca\u0142o\u015bci. Tracisz w ten spos\u00f3b mo\u017cliwo\u015b\u0107 przekazywania pageranku z zablokowanej podstrony do innych, wa\u017cniejszych podstron witryny.<\/p>\n<h2>3 du\u017ce witryny marnuj\u0105ce PageRank<\/h2>\n<p>Przeszuka\u0142am internet na okoliczno\u015b\u0107 najbardziej zawstydzaj\u0105cych wpadek. Wzi\u0119\u0142am list\u0119 <a href=\"http:\/\/www.seomoz.org\/top500\">Top 500<\/a> SEOmozu i wycelowa\u0142am ostrze <a href=\"http:\/\/www.opensiteexplorer.org\/\">OpenSiteExplorera<\/a> w witryn\u0119 Digg.com i list\u0119 jej podstron, do kt\u00f3rych linkuje najwi\u0119cej unikalnych domen. Wyniki s\u0105 dosy\u0107 przera\u017caj\u0105ce:<\/p>\n<p><img decoding=\"async\" class=\"alignnone size-large wp-image-5384\" title=\"podstrony digg.com zbieraj\u0105ce najwi\u0119cej link\u00f3w z unikalnych domen. 4 z 5 najpopularniejszych podstron zablokowane!\" src=\"http:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/4digg-top-five-pages-530x288.jpg\" alt=\"podstrony digg.com zbieraj\u0105ce najwi\u0119cej link\u00f3w z unikalnych domen. 4 z 5 najpopularniejszych podstron zablokowane!\" width=\"530\" height=\"288\" srcset=\"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/4digg-top-five-pages-530x288.jpg 530w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/4digg-top-five-pages-300x163.jpg 300w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/4digg-top-five-pages.jpg 600w\" sizes=\"(max-width: 530px) 100vw, 530px\" \/><\/p>\n<p>(Hej, tam w <a href=\"http:\/\/www.digg.com\/\">Diggu<\/a>! Marnujecie mn\u00f3stwo link juice!)<\/p>\n<p>Tak doszli\u015bmy do pierwszego powa\u017cnego przypadku b\u0142\u0119dnego u\u017cycia robots.txt.<\/p>\n<h3>#1 &#8211; Digg.com<\/h3>\n<p>Blokuj\u0105c z poziomu robots.txt dost\u0119p robot\u00f3w do podstrony, do kt\u00f3rej prowadzi kosmiczna liczba 425 tysi\u0119cy link\u00f3w z unikalnych domen (&#8222;<a href=\"http:\/\/digg.com\/submit?phase=2\" class=\"broken_link\">Submit to Digg<\/a>&#8222;), <strong>Digg.com zrobi\u0142 sobie tak wielk\u0105 krzywd\u0119, jak tylko mo\u017cna sobie wyobrazi\u0107.<\/strong><\/p>\n<p><img decoding=\"async\" class=\"alignnone size-large wp-image-5386\" title=\"podstrona &quot;Submit to Digg&quot;\" src=\"http:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/5submit-to-digg-530x121.jpg\" alt=\"podstrona &quot;Submit to Digg&quot;\" width=\"530\" height=\"121\" srcset=\"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/5submit-to-digg-530x121.jpg 530w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/5submit-to-digg-300x69.jpg 300w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/5submit-to-digg.jpg 600w\" sizes=\"(max-width: 530px) 100vw, 530px\" \/><\/p>\n<p>Co mog\u0119 powiedzie\u0107 dobrego o Diggu, to \u017ce mi\u0119dzy znalezieniem przeze mnie b\u0142\u0119d\u00f3w a chwil\u0105 pisania tego artyku\u0142u, wi\u0119kszo\u015b\u0107 problematycznych wpis\u00f3w znikn\u0119\u0142a z pliku robots.txt. Poniewa\u017c nie mo\u017cna ju\u017c obejrze\u0107 tego &#8222;na \u017cywo&#8221;, poni\u017cej zamieszczam zrzut zawieraj\u0105cej b\u0142\u0105d wersji diggowego pliku robots.txt, a tak\u017ce list\u0119 zaindeksowanych w Google plik\u00f3w z katalogu digg.com\/submit:<\/p>\n<p><img decoding=\"async\" class=\"alignnone size-large wp-image-5387\" title=\"zrzut pliku robots.txt zawieraj\u0105cy b\u0142\u0105d &quot;Disallow: \/submit&quot;\" src=\"http:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/6digg-robots-cache1-530x224.jpg\" alt=\"zrzut pliku robots.txt zawieraj\u0105cy b\u0142\u0105d &quot;Disallow: \/submit&quot;\" width=\"530\" height=\"224\" srcset=\"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/6digg-robots-cache1-530x224.jpg 530w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/6digg-robots-cache1-300x127.jpg 300w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/6digg-robots-cache1.jpg 616w\" sizes=\"(max-width: 530px) 100vw, 530px\" \/><\/p>\n<p>Jak wida\u0107 poni\u017cej, Google nie zaindeksowa\u0142 do tej pory blokowanej jeszcze niedawno tre\u015bci:<\/p>\n<p><img decoding=\"async\" class=\"alignnone size-large wp-image-5388\" title=\"Googlowa lista podstron z katalogu digg.com\/submit\" src=\"http:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/7digg-submit-serp-530x342.jpg\" alt=\"Googlowa lista podstron z katalogu digg.com\/submit\" width=\"530\" height=\"342\" srcset=\"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/7digg-submit-serp-530x342.jpg 530w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/7digg-submit-serp-300x194.jpg 300w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/7digg-submit-serp.jpg 600w\" sizes=\"(max-width: 530px) 100vw, 530px\" \/><\/p>\n<p>Na miejscu ludzi z Digga spodziewa\u0142bym si\u0119, \u017ce po zdj\u0119ciu z robots.txt blokady ich najcz\u0119\u015bciej linkowanych podstron, nast\u0105pi lawinowy wzrost ruchu. \u017beby nie zape\u0142nia\u0107 SERP-\u00f3w podstronami ze zb\u0119dn\u0105 tre\u015bci\u0105, w Diggu powinni wy\u0142\u0105czy\u0107 je z indeksu za pomoc\u0105 <strong>metatagu &#8222;noindex&#8221;<\/strong>, umieszczanego w robots.txt. Tylko takie dzia\u0142anie zagwarantuje nieblokowanie przep\u0142ywu link juice przy jednoczesnym powstrzymaniu Google&#8217;a przed wy\u015bwietlaniem stosownych podstron w wynikach wyszukiwania.<\/p>\n<p>Je\u015bli nie jeste\u015b mocny w u\u017cywaniu &#8222;noindex&#8221;, wystarczy, \u017ce zamie\u015bcisz poni\u017cszy metatag w sekcji [head] stosownej podstrony.<\/p>\n<p><code>&lt;meta name=\"robots\" content=\"noindex, follow\"&gt;<\/code><\/p>\n<p>Dodaj\u0105c do tagu warto\u015b\u0107 &#8222;follow&#8221; m\u00f3wisz botom by nie indeksowa\u0142y danej podstrony, <strong>ale pod\u0105\u017ca\u0142y za zamieszczonymi na niej linkami<\/strong>. W typowych przypadkach jest to rozwi\u0105zanie zalecane, poniewa\u017c nie blokuje przep\u0142ywu link juice do innych podstron witryny. We\u017amy jako przyk\u0142ad podstron\u0119 wynik\u00f3w wyszukiwania zawieraj\u0105c\u0105 linki paginacji. Prawdopodobnie nie chcesz by taka podstrona wy\u015bwietlana by\u0142a w wynikach wyszukiwania, bo tre\u015b\u0107 kolejnych stron wynik\u00f3w b\u0119dzie si\u0119 codziennie zmienia\u0107. Je\u015bli u\u017cyjesz metatagu noindex, follow, wyszukiwarka b\u0119dzie pod\u0105\u017ca\u0107 za zamieszczonymi na podstronie listy wynik\u00f3w linkami i zapewne b\u0119dzie je indeksowa\u0107.<\/p>\n<p>Mo\u017cesz tak\u017ce u\u017cy\u0107 &#8222;noindex, nofollow&#8221;, ale trudno znale\u017a\u0107 cel takiego dzia\u0142ania, jest ono w istocie r\u00f3wnoznaczne z opisywan\u0105 powy\u017cej blokad\u0105 link juice z poziomu robots.txt.<\/p>\n<h3>#2 &#8211; Blogger.com &amp; Blogspot.com<\/h3>\n<p>Nale\u017c\u0105ce do <a href=\"http:\/\/www.google.com\/\">Google<\/a> serwisy blogowe Blogger i Blogspot pokazuj\u0105, \u017ce ka\u017cdy ma co\u015b, co mo\u017ce poprawi\u0107. Spos\u00f3b, w jaki witryny te s\u0105 ze sob\u0105 po\u0142\u0105czone nie mie\u015bci si\u0119 w dobrych praktykach, co powoduje spore straty w link juice.<\/p>\n<p><img decoding=\"async\" class=\"alignnone size-large wp-image-5389\" title=\"g\u00f3wna strona Bloggera\" src=\"http:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/8blogger-homepage-530x389.jpg\" alt=\"g\u00f3wna strona Bloggera\" width=\"530\" height=\"389\" srcset=\"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/8blogger-homepage-530x389.jpg 530w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/8blogger-homepage-300x220.jpg 300w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/8blogger-homepage.jpg 600w\" sizes=\"(max-width: 530px) 100vw, 530px\" \/><\/p>\n<p>Blogger to marka Googlowej platformy blogowej, hostuj\u0105ca blogi w domenie blogspot.com. Problem z blokowaniem link juice i plikiem robots.txt tego serwisu jest taki, \u017ce <a href=\"http:\/\/www.blogspot.com\/robots.txt\">robots.txt ca\u0142kowicie blokuje<\/a> subdomen\u0119 www.blogspot.com. Gdyby tego by\u0142o ma\u0142o, pr\u00f3ba odwiedzenia g\u0142\u00f3wnej strony Blogspota ko\u0144czy si\u0119 przekierowaniem 302 do Blogger.com.<\/p>\n<p>Uwaga: wszystkie inne subdomeny, poza &#8222;www&#8221;, s\u0105 dla robot\u00f3w dost\u0119pne.<\/p>\n<p>Lepszym rozwi\u0105zaniem by\u0142oby tutaj proste <strong>przekierowanie 301<\/strong> z g\u0142\u00f3wnej strony Blogspot.com do g\u0142\u00f3wnego landing page Blogger.com. Wpis w robots.txt powinien zosta\u0107 zatem ca\u0142kowicie usuni\u0119ty. Tak niewielka zmiana odblokuje ukryt\u0105 moc ponad 4600 unikalnych domen linkuj\u0105cych do tego serwisu. To naprawd\u0119 sporo link\u00f3w.<\/p>\n<h3>#3 &#8211; IBM<\/h3>\n<p>IBM z kolei blokuje w robots.txt podstron\u0119, do kt\u00f3rej prowadzi 1001 link\u00f3w z unikalnych domen. Szczerze m\u00f3wi\u0105c, podstrona ta nie tylko jest blokowana na poziomie robots.txt, ale tak\u017ce rozpoczyna trzykrotne przekierowanie 302 do innej witryny &#8211; zobacz poni\u017cej:<\/p>\n<p><img decoding=\"async\" class=\"alignnone size-large wp-image-5390\" title=\"przekierowanie na jednej z podstron witryny IBM\" src=\"http:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/9IBM2-530x172.jpg\" alt=\"przekierowanie na jednej z podstron witryny IBM\" width=\"530\" height=\"172\" srcset=\"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/9IBM2-530x172.jpg 530w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/9IBM2-300x97.jpg 300w, https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/9IBM2.jpg 616w\" sizes=\"(max-width: 530px) 100vw, 530px\" \/><\/p>\n<p>Kiedy popularna <strong>podstrona zostaje skasowana lub przeniesiona<\/strong>, zwykle najlepszym rozwi\u0105zaniem jest ustawienie <strong>przekierowania 301<\/strong> prowadz\u0105cego do najlepiej zast\u0119puj\u0105cej j\u0105 tre\u015bci.<\/p>\n<h2>Robots.txt &#8211; dobre praktyki<\/h2>\n<p>Na wspomnianych powy\u017cej przyk\u0142adach du\u017cych, znanych witryn om\u00f3wili\u015bmy kilka typowych b\u0142\u0119d\u00f3w pope\u0142nianych w pliku robots.txt i sposoby ich omijania. Jednak nie wszystkie. Poni\u017cej lista sposob\u00f3w na powstrzymanie indeksowania wybranych podstron bez marnotrawstwa link juice.<\/p>\n<h3>Noindex<\/h3>\n<p>W wi\u0119kszo\u015bci przypadk\u00f3w najlepsz\u0105 alternatyw\u0105 dla <a href=\"http:\/\/www.seomoz.org\/knowledge\/robotstxt\">wykluczenia podstron na poziomie robots.txt jest meta tag robots<\/a>. U\u017cycie meta tagu robots o warto\u015bci &#8222;noindex&#8221;, ALE NIE &#8222;nofollow&#8221;, zagwarantuje, \u017ce podstrona b\u0119dzie nieobecna w wynikach wyszukiwania, ale wci\u0105\u017c b\u0119dzie przekazywa\u0107 link juice. Mie\u0107 ciastko i zje\u015b\u0107 ciastko :-).<\/p>\n<h3>301 Redirect<\/h3>\n<p>Robots.txt nie jest w\u0142a\u015bciwym miejscem do wymieniania niepotrzebnych, niewa\u017cnych podstron. Je\u015bli podstrona nie istnieje (zosta\u0142a skasowana lub przeniesiona), nie poprzestawaj na zablokowaniu jej. Ustaw z niej przekierowanie 301 do innej podstrony, najlepiej odpowiadaj\u0105cej oczekiwaniom internaut\u00f3w. Wi\u0119cej informacji o przekierowaniach znajdziesz w <a href=\"http:\/\/www.seomoz.org\/knowledge\/redirection\">Knowledge Center Seomoz.org<\/a>.<\/p>\n<h3>Rel=canonical<\/h3>\n<p>Nie blokuj zduplikowanych wersji swoich podstron w robots.txt. Je\u015bli u\u017cyjesz rel=canonical, wyrzucisz nadmiarowe wersje z indeksu, a jednocze\u015bnie skonsolidujesz link juice wszystkich wersji duplikat\u00f3w. Stosuj t\u0119 metod\u0119 gdzie tylko b\u0119dzie to mo\u017cliwe. Wi\u0119cej informacji o kanonikalizacji i poprawnym u\u017cywaniu rel=canonical znajdziesz w <a href=\"http:\/\/www.seomoz.org\/knowledge\/canonicalization\">Knowledge Center<\/a>.<\/p>\n<h3>Zabezpieczenie has\u0142em<\/h3>\n<p>Je\u015bli chcesz zabezpieczy\u0107 cz\u0119\u015b\u0107 tre\u015bci twojej witryny przed oczyma os\u00f3b niepowo\u0142anych, <strong>robots.txt nie jest do tego efektywnym narz\u0119dziem.<\/strong> Je\u015bli publikujesz poufne informacje, zabezpiecz dost\u0119p do nich has\u0142em. Je\u015bli w zwi\u0105zku z tym stworzysz podstron\u0119 logowania, dodaj do niej metatag &#8222;noindex&#8221;. Je\u015bli podejrzewasz, \u017ce taka podstrona mo\u017ce zgromadzi\u0107 wiele link\u00f3w przychodz\u0105cych, pami\u0119taj by zalinkowa\u0107 z niej do innych, wa\u017cnych podstron twojej witryny. Dzi\u0119ki temu przeka\u017cesz im link juice.<\/p>\n<h2>Jak efektywnie u\u017cywa\u0107 Robots.txt<\/h2>\n<p>Najlepsz\u0105 rad\u0105 dotycz\u0105c\u0105 u\u017cywania pliku robots.txt jest <strong>nieu\u017cywanie go w og\u00f3le<\/strong>. No, prawie w og\u00f3le. U\u017cywaj go do zaznaczenia, \u017ce roboty maj\u0105 pe\u0142ny dost\u0119p do wszystkich plik\u00f3w witryny, a tak\u017ce do wskazania robotom pliku z XML-ow\u0105 map\u0105 witryny. I to wszystko.<\/p>\n<p>Tw\u00f3j plik robots.txt powinien wygl\u0105da\u0107 jak nast\u0119puje:<\/p>\n<p>&#8212;&#8212;&#8212;&#8212;&#8212;&#8211;<\/p>\n<p>User-agent: *<br \/>\nDisallow:<\/p>\n<p>Sitemap:<\/p>\n<p>&#8212;&#8212;&#8212;&#8212;&#8212;&#8211;<\/p>\n<h3>Z\u0142e boty<\/h3>\n<p>Na pocz\u0105tku tego tekstu wspomnia\u0142am, \u017ce &#8222;Roboty wi\u0119kszo\u015bci wyszukiwarek wci\u0105\u017c w istocie s\u0142uchaj\u0105 zawartych tym polece\u0144 (&#8230;)&#8221;, co oznacza, \u017ce istniej\u0105 roboty, kt\u00f3re nic sobie z polece\u0144 zawartych w robots.txt nie robi\u0105. Za pomoc\u0105 pliku robots.txt mo\u017cesz wi\u0119c sterowa\u0107 &#8222;dobrymi&#8221; robotami, ale jednocze\u015bnie ponosi\u0107 kl\u0119sk\u0119 w zakresie sterowania &#8222;z\u0142ymi&#8221; robotami. Od razu zastrzegam, \u017ce <strong>dopuszczanie do witryny wy\u0142\u0105cznie robot\u00f3w Google&#8217;a i Binga nie jest dobrym pomys\u0142em<\/strong>, i to z trzech powod\u00f3w:<\/p>\n<ul>\n<li>Wyszukiwarki cz\u0119sto zmieniaj\u0105\/aktualizuj\u0105 nazwy swoich robot\u00f3w (np. zmieniono ostatnio nazw\u0119 bota Binga),<\/li>\n<li>wyszukiwarki &#8222;wypuszczaj\u0105&#8221; w internet r\u00f3\u017cne rodzaje robot\u00f3w do r\u00f3\u017cnych typ\u00f3w tre\u015bci (np. obrazki, wideo, tre\u015bci mobilne itd.),<\/li>\n<li>nie dajesz szans nowym wyszukiwarkom (np. Blekko, Yandex), podczas gdy bran\u017ca wyszukiwarek potrzebuje wi\u0119cej konkurencji.<\/li>\n<\/ul>\n<h3>Konkurenci<\/h3>\n<p>Je\u015bli twoi konkurenci s\u0105 elementarnie biegli w pozycjonowaniu, z ca\u0142\u0105 pewno\u015bci\u0105 <strong>sprawdzaj\u0105 tw\u00f3j plik robots.txt<\/strong>, zastanawiaj\u0105c si\u0119, co mog\u0105 z niego wywnioskowa\u0107 by zyska\u0107 nad tob\u0105 przewag\u0119. Wyobra\u017amy sobie przyk\u0142adowo, \u017ce twoja firma pracuje nad redesignem witryny lub nad now\u0105 lini\u0105 produkt\u00f3w, stosowne podstrony ju\u017c istniej\u0105, ale postanowi\u0142e\u015b zabroni\u0107 robotom indeksowania ich poprzez umieszczenie ich w &#8222;Disallow&#8221; w robots.txt. Je\u015bli tw\u00f3j konkurent przyjdzie, zajrzy do robots\u00f3w i ujrzy tam zablokowany katalog o nazwie \/nowy-produkt-test, to w\u0142a\u015bnie zyska\u0142 nad tob\u0105 spor\u0105 przewag\u0119. Lepiej trzymaj takie rzeczy za ekranem logowania. <strong>Nie rozgaduj w pliku robots.txt wszystkich swoich sekret\u00f3w. <\/strong><\/p>\n<h2>Obs\u0142uga element\u00f3w nie-HTML i systemowych<\/h2>\n<ul>\n<li>Blokowanie z robots.txt dost\u0119pu robot\u00f3w do plik\u00f3w .js i .css nie jest niezb\u0119dne. Wyszukiwarki i tak ich nie zaindeksuj\u0105, czasem natomiast chc\u0105 uzyska\u0107 w nie wgl\u0105d. \u017beby si\u0119 nie nara\u017ca\u0107, lepiej daj im ten wgl\u0105d,<\/li>\n<li>Je\u015bli chcesz uniemo\u017cliwi\u0107 robotom dost\u0119p do dokument\u00f3w w formatach innych ni\u017c HTML (np. PDF), lepiej u\u017cyj tagu <a href=\"http:\/\/googleblog.blogspot.com\/2007\/07\/robots-exclusion-protocol-now-with-even.html\">x-robots<\/a> w nag\u0142\u00f3wku HTTP (Dzi\u0119kuj\u0119 <a href=\"http:\/\/www.foundryinteractive.com\/\">Billowi Nordwallowi<\/a> za podpowiedzenie tej mo\u017cliwo\u015bci!),<\/li>\n<li>Obrazki! Ka\u017cda witryna u\u017cywa te\u0142 obrazkowych lub obrazk\u00f3w u\u017cywanych do ostylowywania witryny, kt\u00f3re nie powinny by\u0107 indeksowane. Pami\u0119taj, \u017ce kiedy tylko jest to mo\u017cliwe, takie obrazki powinny by\u0107 wy\u015bwietlane za po\u015brednictwem CSS, a nie tagu [img]. To pozwoli powstrzyma\u0107 roboty przed indeksowaniem ich.<\/li>\n<li>Sprawd\u017a w logach witryny, czy boty w og\u00f3le pr\u00f3buj\u0105 uzyskiwa\u0107 dost\u0119p do nie-HTML-owych plik\u00f3w twojej witryny. By\u0107 mo\u017ce nie ma si\u0119 czym martwi\u0107.<\/li>\n<\/ul>\n<h2>Lektury dodatkowe<\/h2>\n<p>O b\u0142\u0119dach w robots.txt pisali ju\u017c m.in. Rand Fishkin i Andy Beard. Zwr\u00f3\u0107 jednak uwag\u0119 na dat\u0119 publikacji ich artyku\u0142\u00f3w; oba by\u0142y pisane jeszcze w czasach wewn\u0119trznego PageRank sculptingu robionego za pomoc\u0105 atrybutu nofollow. Innymi s\u0142owy, w szczeg\u00f3\u0142ach oba artyku\u0142y mog\u0105 by\u0107 momentami nieaktualne, natomiast og\u00f3lne przedstawione w nich zasady pozostaj\u0105 niezmienne.<\/p>\n<p>Rand Fishkin: <a href=\"http:\/\/www.seomoz.org\/blog\/headsmacking-tip-13-dont-accidentally-block-link-juice-with-robotstxt\">Don\u2019t Accidentally Block Link Juice with Robots.txt<\/a><br \/>\nAndy Beard: SEO Linking Gotchas Even the Pros Make<\/p>\n<h2>Dobry robots.txt w 6 krokach<\/h2>\n<ul>\n<li>We\u017a plik robots.txt swojej witryny. Je\u015bli zabraniasz w nim dost\u0119pu (&#8222;Disallow&#8221;) do czegokolwiek, czytaj dalej.<\/li>\n<li>Sprawd\u017a w Open Site Explorerze zak\u0142adk\u0119 &#8222;Top Pages&#8221; by zobaczy\u0107 podstrony twojej witryny, do kt\u00f3rych prowadzi najwi\u0119cej link\u00f3w z unikalnych domen i by zorientowa\u0107 si\u0119 rozmiarach &#8222;marnotrawstwa page ranku&#8221;. Dzi\u0119ki temu zyskasz pogl\u0105d jak wysoko umie\u015bci\u0107 kwesti\u0119 robots.txt na li\u015bcie twoich priorytet\u00f3w.<\/li>\n<li>Do nag\u0142\u00f3wk\u00f3w podstron, kt\u00f3re chcia\u0142by\u015b wyrzuci\u0107 z indeksu wyszukiwarek dodaj metatag &#8222;noindex&#8221;.<\/li>\n<li>Ustaw przekierowanie 301 ze skasowanych\/przeniesionych podstron, kt\u00f3re blokowa\u0142e\u015b dot\u0105d w robots.txt.<\/li>\n<li>Dodaj tag rel=canonical do nag\u0142\u00f3wk\u00f3w podstron b\u0119dacych duplikatami, kt\u00f3re blokowa\u0142e\u015b dot\u0105d w robots.txt.<\/li>\n<li>Patrz jak ro\u015bnie ruch z wyszukiwarek!<\/li>\n<\/ul>\n<p>Przyjemnego optymalizowania!<\/p>\n<p>[\u017ar\u00f3d\u0142o: <a href=\"http:\/\/www.seomoz.org\/blog\/serious-robotstxt-misuse-high-impact-solutions\">Serious Robots.txt Misuse &amp; High Impact Solutions<\/a>]<\/p>\n<div class=\"bonus round_all\"><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Istniej\u0105 w internecie popularne witryny, z olbrzymi\u0105 liczb\u0105 link\u00f3w przychodz\u0105cych, kt\u00f3rych podstrony s\u0105 blokowane na poziomie pliku robots.txt przed robotami wyszukiwarek, wyrz\u0105dzaj\u0105c ich pozycjonowaniu du\u017c\u0105 krzywd\u0119. Czy twoja witryna tak\u017ce ma b\u0142\u0119dy w robots.txt? Z poni\u017cszego tekstu dowiesz si\u0119 jak roboty wyszukiwarek traktuj\u0105 zablokowane w robots.txt pliki, po\u015bmiejesz si\u0119 z webmaster\u00f3w znanych witryn i pope\u0142nionych [&hellip;]<\/p>\n","protected":false},"author":18,"featured_media":23204,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1145],"tags":[],"coauthors":[1225],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v24.1 (Yoast SEO v24.4) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Robots.txt: czego nie robi\u0107? Steruj Googlebotem jak chcesz!<\/title>\n<meta name=\"description\" content=\"Istniej\u0105 w internecie popularne witryny, z olbrzymi\u0105 liczb\u0105 link\u00f3w przychodz\u0105cych, kt\u00f3rych podstrony s\u0105 blokowane na poziomie pliku robots.txt przed \u2022 Artyku\u0142 dosta\u0142 9 lajk\u00f3w.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/\" \/>\n<meta property=\"og:locale\" content=\"pl_PL\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Robots.txt: czego nie robi\u0107? Steruj Googlebotem jak chcesz!\" \/>\n<meta property=\"og:description\" content=\"Istniej\u0105 w internecie popularne witryny, z olbrzymi\u0105 liczb\u0105 link\u00f3w przychodz\u0105cych, kt\u00f3rych podstrony s\u0105 blokowane na poziomie pliku robots.txt przed \u2022 Artyku\u0142 dosta\u0142 9 lajk\u00f3w.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/\" \/>\n<meta property=\"og:site_name\" content=\"sprawny.marketing \u2022 Szkolenia \u2022 Konferencje \u2022 Magazyn\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/SprawnyMarketing\/\" \/>\n<meta property=\"article:published_time\" content=\"2010-10-27T14:48:02+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2022-12-28T23:42:18+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/3robots-txt-blocks-link-juic.gif\" \/>\n\t<meta property=\"og:image:width\" content=\"450\" \/>\n\t<meta property=\"og:image:height\" content=\"306\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/gif\" \/>\n<meta name=\"author\" content=\"Maciej Janas\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Napisane przez\" \/>\n\t<meta name=\"twitter:data1\" content=\"Maciej Janas\" \/>\n\t<meta name=\"twitter:label2\" content=\"Szacowany czas czytania\" \/>\n\t<meta name=\"twitter:data2\" content=\"13 minut\" \/>\n\t<meta name=\"twitter:label3\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data3\" content=\"Maciej Janas\" \/>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Robots.txt: czego nie robi\u0107? Steruj Googlebotem jak chcesz!","description":"Istniej\u0105 w internecie popularne witryny, z olbrzymi\u0105 liczb\u0105 link\u00f3w przychodz\u0105cych, kt\u00f3rych podstrony s\u0105 blokowane na poziomie pliku robots.txt przed \u2022 Artyku\u0142 dosta\u0142 9 lajk\u00f3w.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/","og_locale":"pl_PL","og_type":"article","og_title":"Robots.txt: czego nie robi\u0107? Steruj Googlebotem jak chcesz!","og_description":"Istniej\u0105 w internecie popularne witryny, z olbrzymi\u0105 liczb\u0105 link\u00f3w przychodz\u0105cych, kt\u00f3rych podstrony s\u0105 blokowane na poziomie pliku robots.txt przed \u2022 Artyku\u0142 dosta\u0142 9 lajk\u00f3w.","og_url":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/","og_site_name":"sprawny.marketing \u2022 Szkolenia \u2022 Konferencje \u2022 Magazyn","article_publisher":"https:\/\/www.facebook.com\/SprawnyMarketing\/","article_published_time":"2010-10-27T14:48:02+00:00","article_modified_time":"2022-12-28T23:42:18+00:00","og_image":[{"width":450,"height":306,"url":"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/3robots-txt-blocks-link-juic.gif","type":"image\/gif"}],"author":"Maciej Janas","twitter_card":"summary_large_image","twitter_misc":{"Napisane przez":"Maciej Janas","Szacowany czas czytania":"13 minut","Written by":"Maciej Janas"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/#article","isPartOf":{"@id":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/"},"author":{"name":"Maciej Janas","@id":"https:\/\/sprawnymarketing.pl\/#\/schema\/person\/31d89c0504f2726ab50900d7d2ef70fa"},"headline":"Robots.txt: czego nie robi\u0107? Steruj Googlebotem jak chcesz!","datePublished":"2010-10-27T14:48:02+00:00","dateModified":"2022-12-28T23:42:18+00:00","mainEntityOfPage":{"@id":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/"},"wordCount":2205,"commentCount":9,"publisher":{"@id":"https:\/\/sprawnymarketing.pl\/#organization"},"image":{"@id":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/#primaryimage"},"thumbnailUrl":"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/3robots-txt-blocks-link-juic.gif","articleSection":["SEO"],"inLanguage":"pl-PL","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/#respond"]}]},{"@type":"WebPage","@id":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/","url":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/","name":"Robots.txt: czego nie robi\u0107? Steruj Googlebotem jak chcesz!","isPartOf":{"@id":"https:\/\/sprawnymarketing.pl\/#website"},"primaryImageOfPage":{"@id":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/#primaryimage"},"image":{"@id":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/#primaryimage"},"thumbnailUrl":"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/3robots-txt-blocks-link-juic.gif","datePublished":"2010-10-27T14:48:02+00:00","dateModified":"2022-12-28T23:42:18+00:00","description":"Istniej\u0105 w internecie popularne witryny, z olbrzymi\u0105 liczb\u0105 link\u00f3w przychodz\u0105cych, kt\u00f3rych podstrony s\u0105 blokowane na poziomie pliku robots.txt przed \u2022 Artyku\u0142 dosta\u0142 9 lajk\u00f3w.","breadcrumb":{"@id":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/#breadcrumb"},"inLanguage":"pl-PL","potentialAction":[{"@type":"ReadAction","target":["https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/"]}]},{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/#primaryimage","url":"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/3robots-txt-blocks-link-juic.gif","contentUrl":"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2010\/10\/3robots-txt-blocks-link-juic.gif","width":450,"height":306},{"@type":"BreadcrumbList","@id":"https:\/\/sprawnymarketing.pl\/blog\/robots-txt-czego-nie-robic-steruj-googlebotem-jak-chcesz\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Strona g\u0142\u00f3wna","item":"https:\/\/sprawnymarketing.pl\/"},{"@type":"ListItem","position":2,"name":"Robots.txt: czego nie robi\u0107? Steruj Googlebotem jak chcesz!"}]},{"@type":"WebSite","@id":"https:\/\/sprawnymarketing.pl\/#website","url":"https:\/\/sprawnymarketing.pl\/","name":"sprawny.marketing \u2022 Szkolenia \u2022 Konferencje \u2022 Magazyn","description":"","publisher":{"@id":"https:\/\/sprawnymarketing.pl\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/sprawnymarketing.pl\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pl-PL"},{"@type":"Organization","@id":"https:\/\/sprawnymarketing.pl\/#organization","name":"sprawny.marketing \u2022 Szkolenia \u2022 Konferencje \u2022 Magazyn","url":"https:\/\/sprawnymarketing.pl\/","logo":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/sprawnymarketing.pl\/#\/schema\/logo\/image\/","url":"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2020\/07\/logo-3.png","contentUrl":"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2020\/07\/logo-3.png","width":512,"height":106,"caption":"sprawny.marketing \u2022 Szkolenia \u2022 Konferencje \u2022 Magazyn"},"image":{"@id":"https:\/\/sprawnymarketing.pl\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/SprawnyMarketing\/"]},{"@type":"Person","@id":"https:\/\/sprawnymarketing.pl\/#\/schema\/person\/31d89c0504f2726ab50900d7d2ef70fa","name":"Maciej Janas","image":{"@type":"ImageObject","inLanguage":"pl-PL","@id":"https:\/\/sprawnymarketing.pl\/#\/schema\/person\/image\/bfbf531edab7cc5f6fb1f65c67bb5b5d","url":"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2020\/07\/Maciej-Janas-150x150.png","contentUrl":"https:\/\/sprawnymarketing.pl\/wp-content\/uploads\/2020\/07\/Maciej-Janas-150x150.png","caption":"Maciej Janas"},"description":"Od 2004 w pozna\u0144skich agencjach interaktywnych (UX, copy), od lutego 2010 do grudnia 2012 redaktor serwisu SprawnyMarketing.pl. Lubi tropi\u0107 i opisywa\u0107 trendy w biznesie internetowym, interesuje si\u0119 interakcjami technologii z cz\u0142owiekiem i spo\u0142ecze\u0144stwem oraz wsp\u00f3\u0142czesn\u0105 polszczyzn\u0105. Google+","url":"https:\/\/sprawnymarketing.pl\/blog\/autor\/maciej-janas\/"}]}},"_links":{"self":[{"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/posts\/5378"}],"collection":[{"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/users\/18"}],"replies":[{"embeddable":true,"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/comments?post=5378"}],"version-history":[{"count":3,"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/posts\/5378\/revisions"}],"predecessor-version":[{"id":45317,"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/posts\/5378\/revisions\/45317"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/media\/23204"}],"wp:attachment":[{"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/media?parent=5378"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/categories?post=5378"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/tags?post=5378"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/sprawnymarketing.pl\/smblog-api\/wp\/v2\/coauthors?post=5378"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}