scrapy-redis空跑如何中止,队列为空时自动关闭scraper

使用scrapy-redis,可以将scrapy的爬取任务分布式部署,这里指的是同一个爬虫可在多个设备上或者同一个设备上部署多个实例。多个实例共用一个爬取任务队列。

在使用调度器,比如cron, interval等调度器自动创建爬虫任务时,先前创建的爬虫在执行完任务后并不能自动退出,这样造成爬虫实例越来越多。

在旧版的scrapy-redis中可能并没有相关的配置,因此需要自己去实现,参考:https://cloud.tencent.com/developer/article/1406573

但是稍后的版本,直接通过配置的方式即可实现。

 pip3 list | grep scrapy-redis
scrapy-redis        0.7.3

scrapy-redis 关于 spider-idle的源码

    def spider_idle(self):
        """
        Schedules a request if available, otherwise waits.
        or close spider when waiting seconds > MAX_IDLE_TIME_BEFORE_CLOSE.
        MAX_IDLE_TIME_BEFORE_CLOSE will not affect SCHEDULER_IDLE_BEFORE_CLOSE.
        """
        if self.server is not None and self.count_size(self.redis_key) > 0:
            self.spider_idle_start_time = int(time.time())

        self.schedule_next_requests()

        idle_time = int(time.time()) - self.spider_idle_start_time
        if self.max_idle_time != 0 and idle_time >= self.max_idle_time:
            return
        raise DontCloseSpider
            self.max_idle_time = settings.getint(
                "MAX_IDLE_TIME_BEFORE_CLOSE",
                defaults.MAX_IDLE_TIME   # default is 0, 不会自动退出
            )

可以看到上面的idle_time大于配置的值时,就会返回。因此这里在settings.py配置 MAX_IDLE_TIME_BEFORE_CLOSE = 60就可以实现在idle_time 大于指定值时自动退出。

  • 9
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Scrapy-Redis队列是指使用Scrapy-Redis库将Scrapy队列替换为Redis数据库的一种方法。通过将队列存储在Redis中,可以实现分布式爬虫的功能。具体来说,Scrapy-Redis库使用Redis数据库来存储爬取的URL,并在多个爬虫节点之间共享这些URL。这样,不同的爬虫节点可以从Redis中获取URL并进行爬取,实现了分布式爬取的效果。\[2\] 在使用Scrapy-Redis,需要安装相应的模块,包括redisredis-py-cluster、scrapy-redisscrapy-redis-cluster等模块。这些模块的版本需要满足Scrapy-Redis的要求,例如redis的版本需要是2.10.6,redis-py-cluster的版本需要是1.3.6,scrapy-redis的版本需要是0.6.8,scrapy-redis-cluster的版本需要是0.4。\[3\] 通过使用Scrapy-Redis队列,可以实现分布式爬虫的高效运行,提高爬取效率和并发能力。 #### 引用[.reference_title] - *1* *3* [Scrapy-Redis入门实战](https://blog.csdn.net/pengjunlee/article/details/89853550)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [scrapy-redis 更改队列分布式爬虫](https://blog.csdn.net/qq_40279964/article/details/87903435)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值