robots.txt 文件的用途

我们经常在 Google 网站管理员工具,或者在 My applications 的 log 文件里看到 robots.txt 这个名字。这个文件到底有什么用呢?

 

从名字上看,似乎跟搜索引擎的爬虫有过,是的,你猜对了。这个文件就是给爬虫们看的。

 

看看 Google 的官方说明: “只有当您的网站中包含您不想让搜索引擎编入索引的内容时,才需要使用 robots.txt 文件。如果您希望搜索引擎将网站上的所有内容编入索引,则不需要 robots.txt 文件(甚至连空的 robots.txt 文件也不需要)”。(引用自:http://www.google.com/support/webmasters/bin/answer.py?hl=cn&answer=156449

 

所 以,当你没有什么页面需要隐藏的时候,这个文件其实可有可无。但是,当爬虫扫描 robots.txt 文件时,如果你网站的根目录下没有的这个文件的时候,通常要报一个 HTTP 404 的错误,这样 log 信息有点不好看(追求完美的爷们怎么能允许一丁点错误出现在日志文件中呢),所以随手加上一个吧。

 

内容很简单,就是:

 

User-agent: *

Allow: / 
 

简单吧 :-)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值