scrapy爬虫的暂停与重启

本文通过实例介绍了如何在Scrapy项目中实现爬虫的暂停与重启。使用命令`scrapy crawl zhihu -s JOBDIR=remain/001`启动并记录爬取状态,通过`ctrl+c`暂停爬虫。要继续爬取,只需再次输入相同命令。如需重新开始,可更改记录文件名,例如`002`。
摘要由CSDN通过智能技术生成

首先要有一个scrapy项目


这里用我的爬取知乎用户信息的项目来做例子:https://github.com/oldbig-carry/zhihu_user


在cmd上cd 进入项目


然后在项目目录下创建 记录文件:remain/001


然后输入:scrapy crawl  zhihu  -s JOBDIR=remain/001


回车运行就行了

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值