盘点一个Python网络爬虫过程中Xpath提取器的问题

点击上方“Python爬虫与数据挖掘”,进行关注

回复“书籍”即可获赠Python从入门到进阶共10本电子书

问客何为来,采山因买斧。

大家好,我是皮皮。

一、前言

前几天在Python钻石交流群【海南菜同学】问了一个Python网络爬虫的问题,这里拿出来给大家分享下。

9c50b65e51f446c361f0a348f2ebfd75.png下图是他获取到的内容:

28c5d709586046949218e07ec11e2505.png

其实就是多提取了这一行,提到了这个表格内容后,把下面的页码也一同提取了,然后那个页码很多,就显示一堆无用的信息。

22bf27c264dd919c011f4e03d5db941c.png

二、实现过程

这里【瑜亮老师】给了一个思路,使用pd.read_html进行提取的,事半功倍,代码如下所示:

import requests
import pandas as pd
url = "https://zw.hainan.gov.cn/ggzy/ggzy/jgzbgg/index.jhtml"
resp = requests.get(url, headers=headers, cookies=cookies)
df = pd.read_html(resp.text)[0]
df.drop([len(df)-1], inplace=True)
print(df)

顺利地解决了粉丝的问题:

0afe7378309674c24c394229eb98bb5a.png

提取网页信息的方法还是挺多的。

ab18f9934e2077335a3c1c931a0b6fdb.png

后来【甯同学】也给了一个方法,使用xpath方法解决的,代码如下:

ca1794a741d0777eea64320f99896e10.png

里边有个匿名函数可能不太好理解,这里也给予说明了。

cc772a9f2064737cf2fbc50074e9d569.png

直接在代码中将空白字符、换行符什么的都清除掉了。

1eb64e53c22b892036a7e1cd8f0c11da.png

后来代码稍微优化了下,健壮性更强了。

1d00b9d4a72847985b2d9cc802b3cc86.png

三、总结

大家好,我是皮皮。这篇文章主要盘点了一个Python网络爬虫的问题,文中针对该问题,给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。

最后感谢粉丝【海南菜同学】提问,感谢【瑜亮老师】、【甯同学】给出的思路和代码解析,感谢【eric】等人参与学习交流。

大家在学习过程中如果有遇到问题,欢迎随时联系我解决(我的微信:pdcfighting),应粉丝要求,我创建了一些高质量的Python付费学习交流群和付费接单群,欢迎大家加入我的Python学习交流群和接单群!

d6b8220523981669982c1316bfadf8e2.png

小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

997c719217f121337d94c49affc091fd.jpeg

------------------- End -------------------

往期精彩文章推荐:

568457195aa37bdf983317bef1a814b7.png

欢迎大家点赞,留言,转发,转载,感谢大家的相伴与支持

想加入Python学习群请在后台回复【入群

万水千山总是情,点个【在看】行不行

/今日留言主题/

随便说一两句吧~~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值