爬虫君子协议-robots.txt协议

文章目录

一.定义

robots协议是一种约定俗称的爬虫协议,由网站主人规定了该网站的哪些内容可以爬取,哪些内容不可以爬取,擅自爬取可能承担相关法律责任。之所以称之为君子协议,是因为防君子不防小人,该协议并没有用技术手段实现反爬,只是一个申明。

在网站根目录后输入/robots.txt后即可查看该网站的君子协议
例如访问https://www.douban.com/robots.txt可查看豆瓣网站的君子协议
查看结果如下
User-agent: *
Disallow: /subject_search
Disallow: /amazon_search
Disallow: /search
Disallow: /group/search
Disallow: /event/search
Disallow: /celebrities/search
Disallow: /location/drama/search
Disallow: /forum/
Disallow: /new_subject
Disallow: /service/iframe
Disallow: /j/
Disallow: /link2/
Disallow: /recommend/
Disallow: /doubanapp/card
Disallow: /update/topic/
Disallow: /share/
Allow: /ads.txt
Sitemap: https://www.douban.com/sitemap_index.xml
Sitemap: https://www.douban.com/sitemap_updated_index.xml
Crawl-delay: 5

User-agent: Wandoujia Spider Disallow: /

User-agent: Mediapartners-Google
Disallow: /subject_search
Disallow:
/amazon_search
Disallow: /search
Disallow: /group/search
Disallow:/event/search
Disallow: /celebrities/search
Disallow:location/drama/search Disallow: /j/

二.用法

User-agent: *这里的*代表的所有的搜索引擎种类,*是一个通配符
Disallow: /admin/这里定义是禁止爬寻admin目录下面的目录
Disallow: /require/这里定义是禁止爬寻require目录下面的目录
Disallow: /ABC/这里定义是禁止爬寻ABC目录下面的目录
Disallow: /cgi-bin/*.htm禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
Disallow: /?禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$禁止抓取网页所有的.jpg格式的图片
Disallow:/ab/adc.html禁止爬取ab文件夹下面的adc.html文件。
Allow: /cgi-bin/这里定义是允许爬寻cgi-bin目录下面的目录
Allow: /tmp这里定义是允许爬寻tmp的整个目录
Allow: .htm$仅允许访问以".htm"为后缀的URL。
Allow: .gif$允许抓取网页和gif格式图片
Sitemap:网站地图 告诉爬虫这个页面是网站地图

实例分析:淘宝网的 Robots.txt文件
User-agent: Baiduspider
Disallow: /
User-agent: baiduspider
Disallow: /
很显然淘宝不允许百度的机器人访问其网站下其所有的目录。

更多信息->百度百科

  • 4
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
君子协议Robots.txt)是一种通过在网站根目录下放置一个名为 robots.txt 的文件来管理搜索引擎爬虫访问网站的行为的方法。这个文件中可以指定哪些页面可以被搜索引擎访问,哪些页面不希望被访问,以及其他相关的指令。 Robots.txt 文件使用简单的文本格式,它包含一系列的规则。每个规则由两个部分组成:用户代理(User-agent)和指令(Disallow、Allow、Sitemap 等)。 用户代理是指搜索引擎爬虫的身份标识,比如 Googlebot 是 Google 的爬虫程序,Bingbot 是 Bing 的爬虫程序。通过在 robots.txt 文件中指定不同的用户代理,并在其后面添加相应的指令,可以控制不同搜索引擎对网站的访问行为。 指令中最常用的是 Disallow,即指定不希望被搜索引擎访问的路径或文件。例如,"Disallow: /private/" 表示不允许搜索引擎访问网站根目录下的 private 目录及其子目录。 另外,还有 Allow 指令,表示允许搜索引擎访问特定的路径或文件。Sitemap 指令用于指定网站地图文件的位置,以便搜索引擎可以更好地索引网站的内容。 需要注意的是,Robots.txt 文件只是一种约定和建议,并不强制执行。不是所有的搜索引擎都遵守这个协议,也不是所有的网络爬虫都会读取并遵守这个文件。因此,如果希望完全禁止某些页面被搜索引擎访问,更好的方法是使用其他方式进行限制,例如通过登录验证、使用 noindex 标签等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Henrik-Yao

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值