在进行爬虫时,有时候爬取的次数多了或者短时间太过频繁就会出现无法访问的情况,此时是网站封了我们的IP ,为了避免这种情况,我们可以设置代理IP池,通过爬取免费代理IP网站获取代理IP ,然后不断测试更新代理IP池。由于免费的代理IP的不稳定性,因此只能是给大家提供个参考,在真正应用到工程时还是需要有稳定的代理IP。
下载运行ProxyPool
- step1: 下载ProxyPool代码,按照说明配置好Python环境:安装redis数据库,并启动服务,然后安装Python依赖包
pip install redis
pip install -r requirements.txt
- step2:修改test_url,在proxpool/setting.py中将TEST_URL修改为需要爬取的网站。
- step3:最后运行run.py文件,成功运行后,打开http://127.0.0.1:5555/,如下图所示,即为成功。
再访问:http://127.0.0.1:5555/random,即可获取随机可用代理。
注意事项: - 可以自行判断代码中爬取的IP网址是否还可用,不能用的可以删除,也可以自己添加新的IP代理网站爬取代码;
- 由于免费的代理IP极不稳定,所有有时候获取的代理IP池中的IP可能随时都不能用了。
参考文献
- 《Python3 网络爬虫开发实战》