scrapy:同时运行多个爬虫

有的时候需要在scrapy工程里面运行多个爬虫,试用了网上两种方法。

运行环境:scrapy:2.3.0 + python3.8

第一种:

# coding:utf-8

from scrapy import cmdline
cmdline.execute("scrapy crawl spider1".split())
cmdline.execute("scrapy crawl spider2".split())

无效,只能运行第一个。

第二种:

https://www.cnblogs.com/rwxwsblog/p/4578764.html

以上是链接,使用的self.crawler_process和自定义命令的方法,亲测有效,但是这些爬虫是同步运行的,数量多延迟高的情况下,链接会发生超时重置的情况

https://docs.scrapy.org/en/master/topics/practices.html#run-scrapy-from-a-script在官方文档看到可以通过链接延迟项依次运行所有爬虫,这种方式或许可以避免以上问题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值