python爬虫获取元素的属性值_零基础自学爬虫(2)获取知乎粉丝数排行榜 TOP50 用户基础数据-附Python源代码...

我在上篇分享的源代码是一个极简的可执行脚本,刚开始学 Python 编程就能看懂,也能改写其中的参数,自己运行。但脚本的功能仅能同时爬取一个知乎用户。

haili:爬虫获取知乎个人主页的基础数据-Python源代码​zhuanlan.zhihu.com

如果想要获取多个知乎用户,比如知乎粉丝数排行榜 TOP 50 用户,代码需要作出一些升级:

1、爬取单个主页的代码可封装为函数,被调用50次

2、最终输出的结果,简单的字典已经不够;升级为嵌套的字典

3、需要包容异常,遇到异常情况时,能跳过异常继续执行任务

以下是代码:

"""采用 Python Selenium + 无头浏览器,获取知乎粉丝数排行榜 TOP 50 的个人主页基础数据。"""

运行结果:

https

查看结果 rlts 的值:数据量非常大。关注专栏《Python 爬虫实战案例》,下一篇将分享如何对数据进行整理、清洗,并保存到表格文件中。

Python 爬虫实战案例​zhuanlan.zhihu.com
eb6aa212f5c2df4a7168d9d3d10816c2.png
{
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值