robots协议

          Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

         robots.txt文件是一个文本文件, 是一个协议而不是一个命令.  当爬虫访问一个站点时, 它会首先检查该站点根目录下是否存在robots.txt,如果存在,爬虫就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的爬虫将能够访问网站上所有没有被口令保护的页面。 

    样例:

       User-agent: *

       Disallow:  /

       Allow: /public/

 

    以上表明爬虫只充许爬取public目录,将上面的内容保存为robots.txt文件,放在网站的根目录下,和网站的入口文件(  index.html,index.htm等)在一起即可. 

 

    配置项详解:

        User-agent 指定爬虫名, *代表任何爬虫。 如有多条User-agent记录,则可以限制多个爬虫,但至少需要指定一条. 

        Disallow:不允许爬取的目录。 

       Allow:一般配合Disallow使用,用于排除限制。 

 

  常见的爬虫名: 

       BaiduSpider       Googlebot     360Spider     YodaoBot       ia_archiver     

试试查看一下baidu的robots.txt文件:  

    https://www.baidu.com/robots.txt

 

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

zhangyingchengqi

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值