python实现scrapy爬虫每天定时抓取数据

本文介绍了如何使用Python实现Scrapy爬虫每天定时抓取数据,通过监控脚本控制爬虫的运行状态,确保每天凌晨00:01启动,24小时内完成任务。涉及环境配置、设计思路、准备工作、实现代码及部署步骤。
摘要由CSDN通过智能技术生成

python实现scrapy爬虫每天定时抓取数据

1. 前言。

1.1. 需求背景。

  • 每天抓取的是同一份商品的数据,用来做趋势分析。
  • 要求每天都需要抓一份,也仅限抓取一份数据。
  • 但是整个爬取数据的过程在时间上并不确定,受本地网络,代理速度,抓取数据量有关,一般情况下在20小时左右,极少情况下会超过24小时。

1.2. 实现功能。

  • 通过以下三步,保证爬虫能自动隔天抓取数据:
    • 每天凌晨00:01启动监控脚本,监控爬虫的运行状态,一旦爬虫进入空闲状态,启动爬虫。
    • 一旦爬虫执行完毕,自动退出脚本,结束今天的任务。
    • 一旦脚本距离启动时间超过24小时,自动退出脚本,等待第二天的监控脚本启动,重复这三步。

2. 环境。

  • python 3.6.1
  • 系统:win7
  • IDE:pycharm
  • 安装过scrapy

3. 设计思路。

3.1. 前提:目前爬虫是通过scrapy模块自带的cmdline.execute来启动的。

from scrapy import cmdline
cmdline.execute('scrapy crawl mySpider'.split())

3.2. 将自动执行脚本做到scrapy爬虫的外部

  • (1)每天凌晨00:01启动脚本(控制脚本的存活时间为24小时),监测爬虫的运行状态(需要用一个标记信息来表示爬虫的状态:运行还是停止)。
    • 如果爬虫处于运行状态(前一天爬取数据尚未结束),进入第(2)步;
    • 如果爬虫处于非运行状态(前一天的爬取任务已完成,今天的尚未开始),进入第(3)步;
  • (2)脚本进入等待阶段,每隔10分钟,检查一下爬虫的运行状态,如(1)。但是一旦发现,脚本的等待时间超过了24小时,则自动退出脚本,因为第二天的监测脚本已经开始运行了,接替了它的任务。
  • (3)做一些爬虫启动前的准备工作(删除用来续爬的文件,防止爬虫不运行了),启动爬虫爬取数据,待爬虫正常结束后,退出脚本,完成当天的爬取任务。

4. 准备工作。

4.1. 标记爬虫的运行状态。

通过判断文件是否存在的方式来判断爬虫是否处于运行状态:

  • 在爬虫启动时,创建一个isRunning.txt文件。
  • 在爬虫结束时,删除这个isRunning.txt文件。

那么isRunning.txt存在,就说明爬虫正在运行;文件不存在,就说明爬虫不在运行。

# 文件pipelines.py
# 爬虫启动时
checkFile = "isRunning.txt"
class myPipeline:
    def open_spider(self, spider):
        self.client = MongoClient('localhost:27017')  
  • 29
    点赞
  • 230
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
股票数据scrapy爬虫是基于Python语言开发的一个网络爬虫框架,用于抓取股票数据。这个框架提供了丰富的功能和灵活的配置选项,可以快速、高效地从网页上获取所需的股票相关数据。 在使用scrapy进行股票数据爬取时,首先需要确定目标网站,然后编写爬虫程序。通过发送HTTP请求到目标网站的URL,并解析返回的HTML页面,可以从中提取股票数据。具体步骤如下: 1. 设置Scrapy的项目:使用Scrapy命令行工具创建一个新项目,包括项目名称、爬虫名称等。 2. 定义Item:在爬虫项目中定义一个Item类,用于存储爬取到的股票数据。 3. 编写爬虫:在爬虫项目中创建一个爬虫类,并继承Scrapy提供的基础爬虫类。在这个类中定义要抓取的URL、解析HTML页面的规则,并提取所需的股票数据。 4. 编写Pipeline:在爬虫项目中创建一个Pipeline类,用于处理爬取到的股票数据。可以在该类中定义数据的清洗、存储等操作。 5. 配置爬虫:在爬虫项目的配置文件中,设置HTTP请求的头部信息、最大并发数、延时等参数。 6. 执行爬虫:使用Scrapy命令行工具启动爬虫程序,开始抓取股票数据爬虫会按照预先定义的规则和流程,自动地发送请求、解析页面、提取数据,并交给Pipeline处理。 通过以上步骤,就可以使用Scrapy实现股票数据的爬取。Scrapy框架的优点在于它具有高度的可定制性和可扩展性,可以根据具体需求对爬虫进行灵活的配置和修改。同时,它还提供了强大的调试和监控工具,方便我们进行调试和优化爬虫程序。
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值