Blogger

Blogger agrega el sitemap en robots.txt

Los archivos robots.txt sirven, entre otras cosas, para mostrar a los buscadores como indexar nuestro blog o web, pero en Blogger es inaccesible para el usuario y por tanto no tenemos control de él, por suerte Google se esta preocupando más de su plataforma y ha hecho un cambio importante en este archivo.

Ahora en este archivo se da la instrucción a los buscadores que indague en todo el sitemap de tu blog (se crea automáticamente) y de este modo puedan indexar nuestro contenido más rápidamente.

Puedes comprobarlo ingresando en la siguiente dirección de tu blog:

http://TUBLOG.blogspot.com/robots.txt

Y te devolverá las siguientes instrucciones:

User-agent: *
Disallow: /search
Sitemap: http://TUBLOG.blogspot.com/feeds/posts/default?orderby=updated

Vía: Labnol

2 Comentarios

  • Me permito hacer una pequeña corrección, en realidad no es todo el sitemaps… sino las últimas entradas publicadas. Si no me equivoco, las últimas 26.

  • Tienes toda la razón Spamloco, eso deja fuera los post publicados antes de la introducción del archivo robots.txt, por que el resto, aunque en cuotas de 25, irán pasando por dicho archivo.

    Un saludo y ya tenía tiempo no te veía por acá!