基于Scrapy的东方财富网爬虫

这篇博客记录了使用Scrapy爬虫框架抓取东方财富网财经新闻的过程,包括观察网页、新建爬虫工程、编辑items.py和money.py文件,以及如何运行和查看数据持久化结果。在抓取过程中,遇到内容字段的获取问题,通过迭代开发和引入BeautifulSoup库成功解决了问题。
摘要由CSDN通过智能技术生成

标题中的英文首字母大写比较规范,但在python实际使用中均为小写。
2018年9月6日笔记
IDE(Intergrated development Environment),集成开发环境为jupyter notebook和Pycharm
操作系统:Win10
语言及其版本:python3.6

0.观察网页

网页链接:http://finance.eastmoney.com/news/cgsxw_1.html
打开网页,红色方框标注出爬取的文章,效果如下图所示。

10345471-256965d4c4049480.png
image.png

1 新建爬虫工程

新建爬虫工程命令:scrapy startproject EastMoney

10345471-1714d51080352bc5.png
image.png

进入爬虫工程目录命令: cd EastMoney
新建爬虫文件命令: scrapy genspider money finance.eastmoney.com

2.编辑items.py文件

共需要收集8个字段信息:网站website、页面链接url、标题title、摘要abstract、内容content、日期datetime、来源original、作者author


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值