爬取网站总是被封?大神教你搭建Cookies池,以后远离IP被封


摘要

本文作者:崔庆才

GitHub地址:https://github.com/Python3WebSpider/CookiesPool

小编推荐一本崔大大写的网络爬虫的书籍《Python3网络爬虫开发实战》

推荐下我自己创建的Python学习交流群960410445,这是Python学习交流的地方,不管你是小白还是大牛,小编都欢迎,不定期分享干货,包括我整理的一份适合零基础学习Python的资料和入门教程。

很多时候,在爬取没有登录的情况下,我们也可以访问一部分页面或请求一些接口,因为毕竟网站本身需要做SEO,不会对所有页面都设置登录限制。

但是,不登录直接爬取会有一些弊端,弊端主要有以下两点。

设置了登录限制的页面无法爬取。比如论坛,博客等等

如果没有登录请求频繁就很容易被限制或者IP直接被封

下面我们就第二种情况做一个简单的实验。以微博为例,我们先找到一个Ajax接口,例如新浪财经官方微博的信息接口

如果用浏览器直接访问,返回的数据是JSON格式,如下图所示:


但是如果频繁访问的话:


登录微博账号之后重新打开此链接,则页面正常显示接口的结果,而未登录的页面仍然显示请求过于频繁,如下图所示:


我们以新浪微博为例来实现一个Cookies池的搭建过程。

准备工作

搭建之前肯定需要一些微博的账号。需要安装好Redis数据库并使其正常运行。需要安装Python的RedisPy、requests、Selelnium、Flask库。另外,还需要安装Chrome浏览器并配置好ChromeDriver。

Cookies池架构

Cookies的架构和代理池类似,同样是4个核心模块,如下图所示。


Cookies池架构的基本模块分为4块:存储模块、生成模块、检测模块、接口模块。


Cookies池的实现

存储模块

需要存储的内容无非就是账号信息和Cookies信息。

建立两个Hash,结构分别如下图所示。


Hash的Key就是账号,Value对应着密码或者Cookies。

接下来我们创建一个存储模块类,用以提供一些Hash的基本操作,代码如下:


生成模块

生成模块负责获取各个账号信息并模拟登录,随后生成Cookies并保存。

这里主要逻辑就是找出那些还没有对应Cookies的账号,然后再逐个获取Cookies,代码如下:


因为我们对接的是新浪微博,前面我们已经破解了新浪微博的四宫格验证码,在这里我们直接对接过来即可,不过现在需要加一个获取Cookies的方法,并针对不同的情况返回不同的结果,逻辑如下所示:


这里返回结果的类型是字典,并且附有状态码status,在生成模块里我们可以根据不同的状态码做不同的处理。例如

状态码为1的情况:表示成功获取Cookies,我们只需要将Cookies保存到数据库即可。

状态码为2的情况:代表用户名或密码错误,那么我们就应该把当前数据库中存储的账号信息删除。

状态码为3的情况:代表登录失败的一些错误,此时不能判断是否用户名或密码错误,也不能成功获取Cookies,那么简单提示再进行下一个处理即可。

代码实现如下所示:


检测模块

检测模块需要做的就是检测Cookies失效,然后将其从数据中移除。

我们还需要增加一个定时检测模块,它负责遍历池中的所有Cookies,同时设置好对应的检测链接,我们用一个个Cookies去请求这个链接。

为了实现通用可扩展性,我们首先定义一个检测器的父类,声明一些通用组件,实现如下所示:

如检测微博的就可以定义为WeiboValidTester,实现其独有的test()方法来检测微博的Cookies是否合法,然后做相应的处理,所以在这里我们还需要再加一个子类来继承这个ValidTester,重写其test()方法,实现如下:


接口模块

调度模块


运行效果

三个进程全部开启:




转载于:https://juejin.im/post/5c398cdf6fb9a049ff4e59bc

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值