python爬虫之 XPath 结合 requests 爬取豆瓣网站 存储格式可选 有 json、csv、txt

因为项目需要,最近在爬取非遗相关的网站,但目标url 有做源码的保护,不同元素的辨识度特别低,点开审查网页,好几个关键字都是cye-Im-tag
所以就打算用XPath获取详细的节点信息
嘻嘻,这边引用大佬wsmrzx的爬取猫眼电影TOP250数据文章
废话不多说,上链接 猫眼爬取

大佬写得很详细,user-agent改一下即可哈
(直接在浏览器中输入链接:about:version 就能显示哈,大部分浏览器都能这样获取到)

关于lxml库和requests库的安装

只需要执行:
pip install lxml

不知道为什么,使用这个命令安装,一次成功的很少,不知道为啥,就是各种报错

那就先执行命令,安装wheel库
pip install wheel

然后再执行上一个cmd就OK啦

wheel有官网,但直接用pip安装简单粗暴,哈哈哈

=== requests库的安装 ===

无论是Windows、Mac、还是Linux,都可以通过pip这个包管理工具进行安装
在命令行界面中运行如下命令,即可完成requests库的安装
pip3 install requests
或者 pip install requests

友情tip

爬取结果保存成txt格式,比较麻烦,特别是要导入数据库的

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值