Imi restrictioneaza vreo 10 linkuri .
Google nu a putut accesa cu crawlere adresa URL din cauza unei restricţii robots.txt. Aceasta se poate întâmpla din mai multe motive. De exemplu, fişierul robots.txt poate interzice Googlebot în întregime, poate interzice accesul la directorul în care se află adresa URL sau poate interzice accesul la adresa URL în sine. Adesea, aceasta nu este o eroare. Se poate ca dvs. să fi configurat în mod special un fişier robots.txt pentru a ne împiedica să accesăm cu crawlere această adresă URL. Dacă este aşa, atunci nu este nevoie să remediaţi această situaţie; vom continua să respectăm robots.txt pentru acest fişier.
Dacă o adresă URL redirecţionează către o adresă URL care este blocată de un fişier robots.txt, prima adresă URL va fi raportată ca fiind blocată de robots.txt (chiar dacă adresa URL are valoarea Permis în instrumentul de analiză robots.txt).
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Noindex: /feedReaderJson
Sitemap: http://hannibal-king.blogspot.com/feeds/posts/default?orderby=updated
Cum modific sa am allow la /search?:D care ma poate ajuta?
2 comentarii:
Stai frate linistit ca e normal sa ai asa ceva. La inceput si eu imi faceam probleme dar am am aflat ca nu aveau rost ingrijorarile mele.
toti au:)) si faza e ca nu pot sa umblu la robots asta pot numai cei de la blogger
Trimiteți un comentariu