【Python】Python入门—实现scrapy爬虫每天定时抓取数据

本文介绍了如何使用Python Scrapy框架实现每天定时抓取数据的爬虫。通过创建监控脚本,确保爬虫每天凌晨00:01自动启动,并在24小时内自动结束。监控脚本会检查爬虫状态,如果爬虫未运行则启动,运行中则等待,同时支持续爬功能。此外,文章还提供了关于日志命名、数据存储、批处理文件和计划任务设置的详细步骤。
摘要由CSDN通过智能技术生成
  1. 前言。

1.1. 需求背景。

每天抓取的是同一份商品的数据,用来做趋势分析。
要求每天都需要抓一份,也仅限抓取一份数据。
但是整个爬取数据的过程在时间上并不确定,受本地网络,代理速度,抓取数据量有关,一般情况下在20小时左右,极少情况下会超过24小时。
1.2. 实现功能。

通过以下三步,保证爬虫能自动隔天抓取数据:
每天凌晨00:01启动监控脚本,监控爬虫的运行状态,一旦爬虫进入空闲状态,启动爬虫。一旦爬虫执行完毕,自动退出脚本,结束今天的任务。一旦脚本距离启动时间超过24小时,自动退出脚本,等待第二天的监控脚本启动,重复这三步。
小编是一名python开发工程师,这里有我自己整理了一套最新的python系统学习教程,包括从基础的python脚本到web开发、爬虫、数据分析、数据可视化、机器学习等。想要这些资料的可以关注小编,并在后台私信小编:“01”即可领取
2. 环境。

python 3.6.1
系统:win7
IDE:pycharm
安装过scrapy
3. 设计思路。

3.1. 前提:目前爬虫是通过scrapy模块自带的cmdline.execute来启动的。

from scrapy import cmdline
cmdline.execute(‘scrapy crawl mySpider’.split())12
3.2. 将自动执行脚本做到scrapy爬虫的外部

(1)每天凌晨00:01启动脚本(控制脚本的存活时间为24小时),监测爬虫的运行状态(需要用一个标记信息来表示爬虫的状态:运行还是停止)。
如果爬虫处于运行状态(前一天爬取数据尚未结束),进入第(2)步;如果爬虫处于非运行状态(前一天的爬取任务已完成,今天的尚未开始),进入第(3)步;
(2)脚本进入等待阶段,每隔10分钟,检查一下爬虫的运行状态,如(1)。但是一旦发现,脚本的等待时间超过了24小时,则自动退出脚本,因为第二天的监测脚本

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

李老师搞技术

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值