html如何获取请求头变量的值。_一篇文章教会你利用Python网络爬虫获取分类图片...

今天来教大家如何使用Python来爬取博海拾贝的图片,分类保存,写入文档。

430169225c6936f3b0d88cd1402b6b76.png

【二、项目目标】

创建一个文件夹, 分类保存所有文章图片。下载成功,结果显示控制台。

【三、项目分析】

1、如何找到真正访问的地址,多网页请求?

滑动鼠标,观察网站,右键F12 。鼠标滚轮滑动加载新内容。如图:

866ac640fbfaa65c691799ad4f921752.png

点开随机网页 , 点开Request URL ,观察网址的规律。

bd8e3968d16bb58912d941024b8e5fdc.png

https://bh.sb/page/1/https://bh.sb/page/2/https://bh.sb/page/3/https://bh.sb/page/4/

观察到,每增加一页page/{}/自增加1,用{}代替变换的变量,再用for循环遍历这网址,实现多个网址请求。

2. 反爬处理

1)获取正常的 http请求头,并在requests请求时,设置这些常规的http请求头。

2)使用 fake_useragent ,产生随机的UserAgent进行访问。

【四、涉及的库和网站】

1、网址如下:

https://www.doutula.com/photo/list/?page={}

2、涉及的库:requests、lxml、fake_useragent、time、os

3、软件:PyCharm

【五、项目实施】

1、我们定义一个class类继承object,然后定义init方法继承self,再定义一个主函数main继承self。导入需要的库和网址,创建保存文件夹。

import requests, osfrom lxml import etreefrom fake_useragent import UserAgentimport timeclass bnotiank(object): def __init__(self): os.mkdir("图片") # 在创建文件夹 记住只有第一次运行加上,如果多次运行请注释掉本行。 def main(self): passif __name__ == '__main__': Siper=bnotiank() Siper.main()

2、随机UserAgent ,构造请求头,防止反爬。

ua = UserAgent(verify_ssl=False) for i in range(1, 50): self.headers = { 'User-Agent': ua.random }

3、发送请求 ,获取响应,页面回调,方便下次请求。

'''发送请求 获取响应''' def get_page(self, url): res = requests.get(url=url, headers=self.headers) html = res.content.decode("utf-8") return html

4、定义parse_page函数,获取二级页面地址,for遍历获取需要的字段。

def parse_page(self, html): parse_html = etree.HTML(html) image_src_list = parse_html.xpath('//p/a/@href') # print(image_src_list)

5、对二级页面发生请求,xpath解析数据,获取大图片链接。

reo = parse_html1.xpath('//div//div[@class="content"]') #父结点 for j in reo: d = j.xpath('.//article[@class="article-content"]//p/img/@src')[0] text = parse_html1.xpath('//h1[@class ="article-title"] //a/text()')[0].strip()

6、请求图片地址,写入文档。

html2 = requests.get(url=d, headers=self.headers).content dirname = "./d/" + text + ".jpg" #定义图命名 with open(dirname, 'wb') as f: f.write(html2) print("%s 【下载成功!!!!】" % text)

7、调用方法,实现功能。

url = self.url.format(page) print(url) html = self.get_page(url) self.parse_page(html)

8、设置延时。(防止ip被封)。

time.sleep(1) """时间延时"""

【六、效果展示】

1、点击绿色小三角运行输入起始页,终止页。

d14e0794f332f70b8222cfb4758c17bd.png

2、将下载成功信息显示在控制台。

fdb20155642e2ac0a2f66f64c96e1bf6.png

3、text 作为图片命名,展示效果如下所示。

469fdfd26803d37d4437e5d2f25643db.png

【七、总结】

1、不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。

2、本文基于Python网络爬虫,讲述了反爬技巧,利用爬虫库,实现了分类图片的获取,存入文档。

3、希望通过这个项目,能够帮助了解xpath,字符串是如何拼接,format函数如何运用。

4、实现的时候,总会有各种各样的问题,切勿眼高手低,勤动手,才可以理解的更加深刻。

【八、python资料】

2020Python自学教程全新升级为《Python+数据分析+机器学习》,九大阶段能力逐级提升,打造技能更全面的全栈工程师。

1d1ab5f3a7b4167608ad9a26c035ab1a.png

转发+私信小编:“python”即可免费领取!!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值