最新消息:新的一年,启动新的宽屏主题模版,关注更多的web前端!

规范的robots.txt语法说明

网络技术 amason 2179浏览 0评论

如果你是通过搜索引擎过来的,甚至通过“robots.txt”等相关关键词看到这篇文章,我可以很严肃地告诉你,你要找的不是robots.txt而是robots.txt(robots的复数形式),至于我为什么要取robots.txt这样的错误的关键词我只是来做一个实验,想知道误写关键词的从搜索引擎带来的流量。当然,专门优化E文容易拼错的关键词曾经是SEO的策略之一。下面关于规范的robots.txt语法说明绝对是有价值,没有任何忽悠你的意思。

robots.txt文件其实就是声明该网站中不想被搜索引擎robots(或者spider)访问的部分。robots.txt应该放在网站根目录下,它有下面两个属性。

User-agent: 该项的值用于描述搜索引擎robots的名字,在"robots.txt"文件中,如果有多条User-agent记录说明有多个robots会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中, "User-agent:*"这样的记录只能有一条。

Disallow: 该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被 robots访问到。例如"Disallow:/help"对/help.html 和/help/index.html都不允许搜索引擎访问,而"Disallow:/help/"则允许robots访问/help.html,而不能访问 /help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少要 有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎robots,该网站都是开放的。

另外你可以参考 http://www.w3.org/robots.txt 及 http://www.google.com/robots.txt 的写法对你的网站robots.txt进行规范化设计。

推荐其他相关robots.txt有价值的链接:如何写robots.txt? – 点石互动搜索引擎蜘蛛及robots.txt文件详解

转载请注明:笑申爱设计|liushen.net » 规范的robots.txt语法说明

发表我的评论
取消评论

表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址