如何使用robots禁止各大搜索引擎爬虫爬取网站

本文转载于:猿2048网站https://www.mk2048.com/blog/blog.php?id=hakbhhj&title=%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8robots%E7%A6%81%E6%AD%A2%E5%90%84%E5%A4%A7%E6%90%9C%E7%B4%A2%E5%BC%95%E6%93%8E%E7%88%AC%E8%99%AB%E7%88%AC%E5%8F%96%E7%BD%91%E7%AB%99

ps:由于公司网站配置的测试环境被百度爬虫抓取,干扰了线上正常环境的使用,刚好看到每次搜索淘宝时,都会有一句由于robots.txt文件存在限制指令无法提供内容描述,于是便去学习了一波

   1.原来一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)

    2.下面我们就来说一说如何设置robots.txt文件

    1).robots.txt文件必须是放在文件根目录上:
      例如:

        ├─admin

        │  └─templates

        │          header.tpl.php

        │          task_add.tpl.php

        │   └─robots.txt

     2 ) .首先常用的命令为

        User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配

        Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取

        Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时

        Allow : 允许爬取指定页面, 为 / 时爬取整站

    3) 搜索引擎别称

        Googlebot 谷歌

         Baiduspider 百度

        等等

  类似我们测试环境就设置了

 

    User-agent : / 所有搜索引擎

    Disallow : / 禁止整站

 

 

        

 

本文转载于:猿2048https://www.mk2048.com/blog/blog.php?id=hakbhhj&title=%E5%A6%82%E4%BD%95%E4%BD%BF%E7%94%A8robots%E7%A6%81%E6%AD%A2%E5%90%84%E5%A4%A7%E6%90%9C%E7%B4%A2%E5%BC%95%E6%93%8E%E7%88%AC%E8%99%AB%E7%88%AC%E5%8F%96%E7%BD%91%E7%AB%99

转载于:https://my.oschina.net/u/4181724/blog/3089917

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值