python应对反爬虫策略_如何应对网站反爬虫策略?如何高效地爬大量数据?

看了回答区,基本的反爬虫策略都提到了,下面说几个作为补充。

1、对于处理验证码,爬虫爬久了通常网站的处理策略就是让你输入验证码验证是否机器人,此时有三种解决方法:第一种把验证码down到本地之后,手动输入验证码验证,此种成本相对较高,而且不能完全做到自动抓取,需要人为干预。

第二种图像识别验证码,自动填写验证,但是现在的情况是大部分验证码噪声较多复杂度大,对于像我这样对图像识别不是很熟悉的人很难识别出正确的验证码。

第三种也是最实用的一种,接入自动打码平台,个人感觉比上两种方法好些。

2、多账号反爬,有很多的网站会通过同一个用户单位时间内操作频次来判断是否机器人,比如像新浪微博等网站。这种情况下我们就需要先测试单用户抓取阈值,然后在阈值前切换账号其他用户,如此循环即可。当然,新浪微博反爬手段不止是账号,还包括单ip操作频次等。

3、分布式爬虫,分布式能在一定程度上起到反爬虫的作用,当然相对于反爬虫分布式最大的作用还是能做到高效大量的抓取。

4、保存cookies,记录用户的状态,在模拟登陆十分麻烦的情况下,我们不妨直接在web上登陆之后取下cookie并保存然后带上cookie做爬虫,但这不是长久的方法,而且cookie隔一段时间可能失效。有的网站会根据cookie中的一些值去判断是否机器人,这个需要自己不断测试,比如豆瓣。

5、注意配合移动端、web端以及桌面版,其中web端包括m站即手机站和pc站,往往是pc站的模拟抓取难度大于手机站,所以在m站和pc站的资源相同的情况下优先考虑抓取m站。同时如果无法在web端抓取,不可忽略在app以及桌面版的也可以抓取到目标数据资源。

应对反爬虫的策略,首先要发现网站的反爬虫手段是什么?这个发现的过程就是不断测试的过程,有点类似于A/B测试,弄清楚它的反爬虫机制,就成功了一大半了。

很多人问我如何学习Python爬虫,为此我整理编写了一本Python爬虫相关的电子书,主要包括Python入门、Python爬虫入门到进阶、Python爬虫面试总结等等。可以在微信公众号【路人甲TM】后台回复关键词【1】获取这本电子书。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值