【爬虫】scrapy爬取股票历史数据并保存成CSV文档

本文介绍如何使用Scrapy爬虫从指定网址获取股票历史数据,通过连接MongoDB获取股票代码,然后请求下载CSV文件,并利用Scrapy的filepipeline进行文件保存,最终实现将爬取的数据保存为自定义名称的CSV文档。
摘要由CSDN通过智能技术生成

这个爬虫是接着上个爬虫做的,先送上传送门:https://blog.csdn.net/yao09605/article/details/94596341
我们的目标网址是

http://quotes.money.163.com/trade/lsjysj_股票代码.html

股票代码的来源就是上个爬虫存到mongodb里面的股票列表
先在terminal中新建项目:

scrapy startproject stock_history

同样将项目在pycharm中打开,
在这里插入图片描述
首先编辑stock_history_spider.py
第一步,初始化的时候连接上MONGODB,并取出列表。

class StockHistorySpider(scrapy.Spider):
	collection = 'stock_list'
	name = 'stock_history_spider'
	headers = {
   
		'Referer': 'http://quotes.money.163.com/',
		'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'
	}

	def __init__(self):
		scrapy.Spider.__init__(self)  # 必须显式调用父类的init
		self.log(sys.getdefaultencoding())
		self.current_stock_code = ''
		self.mongo_url = MONGO_URI
		self.mongo_db = MONGO_DB
		self.client = MongoClient(self.mongo_url)
		self.db = self.client[self.mongo_db]
		self.stock_list = self.db[self.collection].find({
   }, {
   'stock_id': 1, '_id': 0}
  • 2
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值