文章目录一、网页查看二、完整代码及代码分析三、图片辅助分析四、运行结果许多python爬虫爱好者在爬虫爬取过程中或多或少都有被爬取网址封禁IP的时候,博主本人也是深受其害,为此才有了这篇博文的诞生,让更多爬虫爱好者不再受害。希望此教程对你们有所帮助,那我这篇博文也就有意义了。
一、网页查看本次构造IP代理池,我们的目标是快代理
快代理首页,虽然有着免费代理,但都是HTTP类型的,而在开放代理中不仅有着HTTP还有HTTPS类型的免费代理
打开控制台查看数据位置
可以发现IP代理数据不是动态加载的,这样就好办了,请看下面的代码分析
多页爬取,大家都是清华北大的下图应该看的懂吧。ο(=•ω<=)ρ⌒☆
二、完整代码及代码分析
import requests
from bs4 import BeautifulSoup
import time
#列表(最后的ip代理数据保存再列表中)
proxies_list = []
#爬取
def download(response):
#引入全局变量
global proxies_list
#使用bs4的lxml解析
data_list = BeautifulSoup(response.text, "lxml