网站优化之robots.txt爬虫协议的写法

Robots.txt即爬虫协议,是搜索引擎蜘蛛进入网站第一个寻找的文件,它告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

当我们网站出现错误页面,或者某些页面不想让蜘蛛爬取时,合理的配置robots协议可以让蜘蛛更高效快捷的爬取到需要抓取的内容。当搜索引擎蜘蛛进入网站,首先查找网站根目录下是否存在robots.txt文件,若存在,则按照该文件的规范抓取内容;若不存在该文件,则按照默认的规则爬取网站中所有网页。因此,本文介绍一些robots语法和常用实例。

网站设置robots.txt的好处:禁止搜索引擎收录部分页面;引导蜘蛛爬网站地图;能够一定程度上保护网站安全;节省流量等。

Robots基本语法:

1、定义搜索引擎:User-agent。

User-agent: *  #所有的搜索引擎
User-agent: Baiduspider #百度蜘蛛
User-agent: Googlebot #谷歌蜘蛛

2、Disallow 禁止爬取。

Disallow: /admin/ #禁止爬取admin文件夹
Disallow: /login.html #禁止爬取登录页面

3、Allow 允许。默认情况下,都是允许的。

例如:禁止admin文件夹下的所有文件,除了.html的网页。如果用Disallow一个一个的禁止,太浪费时间了。

此时用Allow就解决这个问题:

Allow: /admin/.html$ 
Disallow: /admin/

4、$ 结束符。

例:允许所有的以.html结尾的文件。不管前面有多长的URL,只要以.html结尾都允许

Allow: .html$

5、* 通配符符号0或多个任意字符。

例:屏蔽所有的动态URL

User-agent: *
Disallow: /*?*

6、Sitemap 声明网站地图。

Sitemap: http://www.xiaowangyun.com/sitemap.xml

7、#: 注释符。

8、版本号

Robot-version: Version 1.0

注:

1.robots.txt文件存放在网站根目录下。
2.文件名所有字母都必须小写(robots.txt)。
3.User-agent、Disallow、Allow、Sitemap必须是第一个字母大写,后面的字母小写,后面英文字符下的空格。

常用Robots.txt 文件举例

例1、禁止所有搜索引擎访问网站的任何部分

User-agent: *
Disallow: /

例2、禁止访问某些目录。注意的是对每一个目录必须分开声明。

User-agent: *
Disallow: /admin/
Disallow: /log/
Disallow: /bin/

例3、禁止某个搜索引擎抓取网站上的所有图片

User-agent: *
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
应对robots.txt爬虫,首先我们需要了解网站robots.txt文件的内容。这个文件可以通过在网站域名后加上/robots.txt来查看。其中,User-agent: *表示针对所有爬虫,而Disallow: /表示禁止爬取整个网站。其他的规则也可以根据实际情况进行限制。因此,为了应对robots.txt爬虫,我们需要遵守网站的规则,不爬取被禁止的页面和内容。尊重网站的规定是一个基本的原则,即使robots.txt只是一个君子协议,不能完全阻止你去爬取。但是良好的爬虫行为应该遵守规则,避免对网站造成过大的负担。在爬取网站之前,我们应该先查看该网站robots.txt文件,了解哪些页面可以爬取数据,哪些页面禁止爬取数据。这样能够更好地进行爬取,避免触犯反爬虫策略。同时,我们也需要注意,爬取到的数据基本上都是用户可以看到的数据,但并不意味着所有爬取到的数据都可以用于商业用途。很多网站爬取的数据有一定的限制。因此,在使用爬取到的数据时,我们需要遵循网站的规定和法律法规,确保数据的合法使用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [反爬虫的常见应对方法](https://blog.csdn.net/weixin_44769612/article/details/115344085)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值