反爬虫与反反爬虫

本文探讨了反爬虫技术的原因,包括保护数据可靠性、防止高并发攻击和保护版权等,并列举了封IP、UserAgent、Cookie、请求时间间隔、robots.txt、验证码、JavaScript渲染和Ajax等反爬手段。同时,介绍了反反爬虫技术,如降低请求频率、修改请求头、禁用Cookie、伪装User-Agent和使用HTTP代理服务器,强调在爬虫实践中应尊重网站规则,保持良好心态。
摘要由CSDN通过智能技术生成

1.反爬虫技术
首先我们来思考一下,为什么要反爬虫?
网络中充斥大量爬虫的情况下,会使得整个网络的数据不可靠。
网站在面对高并发爬虫的攻击时,很容易被击溃。
版权数据被爬取,对于网站来说是巨大的损失。
基于以上原因,反爬虫技术孕育而生,主要包含以下最常用的反爬技术:

封IP
后台对访问进行统计,如果单个IP访问超过阈值,则封锁该IP。

封UserAgent
后台对访问进行统计,如果单个UserAgent访问超过阈值,则封锁该UserAgent。

封Cookie
后台对访问进行统计,如果单个cookies访问超过阈值,则封锁该cookie.

设置请求时间间隔
设置请求时间间隔,规避过于频繁的请求访问,避免爬虫短时间爬取大量数据。

robots.txt协议
robots.txt是一个限制爬虫的规范,该文件是用来声明哪些东西不能被爬取; 设置robots.txt协议,位于robots.txt中的UserAgent不可请求网站数据。

验证码验证
发生大量请求时,弹出验证码验证,通过验证方可继续访问。

JavaScript渲染网页
将重要信息放在网页中但不写入html标签中,而浏览器会自动渲染标签中的js代码,将信息展现在浏览器当中,而爬虫是不具备执行js代码的能力,所以无法将js事件产生的信息读取出来。

ajax异步传输
访问网页的时候服务器将网页框架返回给客户端,在与客户端交互的过程中通过异步ajax技术传输数据包到客户端,呈现在网页上,爬虫直接抓取的话信息为空。

网页iframe框架嵌套
在下载框处再内嵌一个窗口,使得爬虫提取不到内层窗口的数据。

2.反反爬虫技术
有反爬虫技术,就会有反反爬虫技术存在,这是两种相互对抗的技术;这两种技术也在相互对抗中不断发展。

我们在编写爬虫时,要对获取海量的免费数据心怀感恩,而不是恶意攻击网站,这是一种害人害己的形为。

常用的反反爬虫技术有以下这些:

*降低请求频率
对于基于scrapy框架构建的爬虫,在配置文件settings.py中设置DOWN-LAOD_DELAY即可。
以下代码设置下载延迟时间为4秒,即两次请求间隔4秒。

DWONLOAD_DELAY = 
  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值