使用reactor多线程运行scrapy

# -*- coding: utf-8 -*-
import threading
from twisted.internet import reactor, defer
from scrapy.crawler import CrawlerRunner
from scrapy.utils.project import get_project_settings


runner = CrawlerRunner(get_project_settings())
@defer.inlineCallbacks
def crawl():
    while True:
        yield runner.crawl("scrapy项目中spider文件名")
    reactor.stop()

def do_job():
    crawl()
    reactor.run()

if __name__ == '__main__':
        thread = []
        for i in range(60):
            t = threading.Thread(target=do_job)
            t.daemon = True  # 设置线程daemon  主线程退出,daemon线程也会推出,即时正在运行
            t.start()
            thread.append(t)
        for j in thread:
            j.join()

 

代理如上图:执行该文件就可以多线程运行scrapy项目

该文件的路径如图:

文件存放在项目目录下

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值