Python网络爬虫实战——实验2:Python爬虫网络请求与内容解析

【实验内容】

本实验主要通过requests、re与lxml库的使用,采集北京市政府招中标数据。(https://ggzyfw.beijing.gov.cn/index.html)

【实验目的】

1、熟悉网页结构、了解网络抓包的技巧;
2、了解requests网络请求库的基本使用;
3、掌握基础的re、xpath语法的使用;

【实验步骤】

步骤1 观察网址结构
步骤2 获取子页面链接
步骤3 解析子页面,输出json文件

步骤1:观察网址结构

(1)分析主页面在这里插入图片描述

进入网址后,按下F12打开开发者工具,选择Fetch/XHR,点击下一页,可以看到服务器返回给我们的数据包,里面返回了子页面的信息,说明只要我们对https://ggzyfw.beijing.gov.cn/elasticsearch/search此接口发起请求,就可以获取子链接数据。

在这里插入图片描述请求携带参数如上图所示。

(2)分析子页面
/==============================================================================================================================================/
**************************************************在这里插入图片描述步骤2:获取子页面链接(main.py)
使用requests库对aip数据接口发起post请求,携带请求头headers与请求参数data,从响应的 JSON 数据中提取 ‘result’ 键对应的值,并使用 eval 函数将其转换为dict对象,如果返回的数据为空则跳出循环。
/================================================================================================/
/=================================================/
导包:在这里插入图片描述main.py部分代码示例如下:


运行main.py,打印子页面链接如下图所示:


步骤3 解析子页面,输出json文件(extract_data.py)
(1)获取子页面文本数据
导包:
在这里插入图片描述
对子链接发起get请求,使用text属性获取返回的文本数据,使用lxml中的clean方法对获取到的数据进行清洗,
/======================================================================================================/
遍历该列表,使用列表推导式清理掉空白数据,并且使用re.sub()方法替换掉所有空白字符。
部分代码如下所示:


(2)提取文本数据
分析子页面后可以发现标题拥有class属性div-title,因此可以通过xpath 语法定位到该标签,并且拿到该标签的文本数据。
在这里插入图片描述xpath表达式说明:


分析子页面返回数据后可以发现,使用正则提取信息来源与项目编号较为方便。

部分字段解析代码如下:


\S表示匹配任意非空字符,()表示一个捕获组,pattern3这个re表达式可以提取到信息来源后面的文本数据。如果提取到了之后将其赋值给变量informationRelease
/============================================================================================================/

(3)保存为json文件
在这里插入图片描述
将解析完成的字段保存在target这个字典中,使用open文件操作语句将数据追加到beijing-zhong.json文件中,使用json.dumps()将字典序列化。

beijing-zhong.json文件部分数据如下图所示。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值