python爬取股票大单历史记录_利用bs4爬取股票的历史交易数据

本文介绍如何使用Python爬虫从网易财经获取股票历史交易数据。通过构造URL,结合BeautifulSoup解析HTML,爬取中国石油2016年第4季度的数据,并存储为TXT文件。该过程涉及URL参数解析、网页数据提取及文件写入,为后续进行机器学习分析打下基础。
摘要由CSDN通过智能技术生成

听起来,爬取股票的所有历史交易数据跟高大上,有木有?

不过写这个爬虫的时候,发现基于网易财经的股票历史数据的爬取其实挺简单,最后再写到txt文档里(暂时写txt,以后会写csv的。可以在用机器学习干一些酷酷的事情~)

爬数据之前,先要看看url怎么构造啊,看了网易财经的url的构造,还真的是很亲民。

下面假设我们要爬取中国石油(601857)的2016年第4季度的数据,url就是下面这样。

url = 'http://quotes.money.163.com/trade/lsjysj_601857.html?year=2016&season=4'

仔细一看,构造url只需要3个参数就够了。

股票的代码:601857,年度:2016,季度:4 。

第一个参数,可以手动输入,后两个参数,可以用循环出多年度的多季度数据。

这个爬虫最重要的也就是循环爬取这些构造出来的url,

然后我们开始写爬取单个页面数据的函数:

爬取的过程呢,就是用BeautifulSoup来过滤源代码。

date = soup.select('div.inner_box > table > tr > td')

就可以获取当前页面,也就是一个年度中一个季度的所有股票交易数据,

然后循环处理一下,在每条数据中的每个数字之后加上空格,每条数据后加上换行,拼接成字符串,返回。

最后在循环url的函数中,循环调用单页面爬取函数,就可以爬取所有的股票数据了。

f = open('./' + title + '.txt', 'wb')

最后再写入一个以股票代码为文件名的txt文档里。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值