scrapyd 批量清除pending任务

 

一、问题

由于爬虫报错/生产环境更换等原因造成定时的scrapy任务队列 pending 等待的太多

(通过http://127.0.0.1:6800/listjobs.json?project=myproject 查询到 pending 的爬虫队列竟然有600+....)

 

二、解决方案

进入 用户目录下-->dbs 目录,删除 pending 的scrapy项目db文件即可

因为 dbs 目录下存储着项目数据(包括爬虫任务队列)

如下图(scrapy项目为MyToken, 此处删除 MyToken.db)

 

 

:查看scrapyd官方文档(https://scrapyd.readthedocs.io/en/stable/config.html),我们可以发现:

dbs_dir: The directory where the project databases will be stored (this includes the spider queues).

 带有所有默认值的示例配置文件如下,默认在用户目录下

 

参考文档:https://scrapyd.readthedocs.io/en/stable/config.html

 ------------- END ------------

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值