scrapy爬虫框架多个spider指定pipeline

本文探讨了在Scrapy中处理多个爬虫时如何为每个爬虫指定不同的Item Pipeline。方法包括:1) 通过settings设置文件,但会受全局属性影响;2) 在Pipeline中判断爬虫来源,实现逻辑差异化;3) 直接在爬虫内部设置Pipeline,适用于Scrapy 1.1及以上版本。
摘要由CSDN通过智能技术生成

前言:scrapy是个非常不错的处理高并发的爬虫框架,其底层是异步框架 twisted,优势明显。

现在来看一个问题:当存在多个爬虫的时候如何指定对应的管道呢?

 

这里定义了两个爬虫:filmmeiju

 

1.首先想到settings设置文件。

settings里针对item_pipelines的设置如下:

内置设置参考:ITEM_PIPELINES
默认: {}

包含要使用的项目管道及其顺序的字典。顺序值是任意的,但通常将它们定义在0-1000范围内。较低订单处理较高订单前。

例:

对应管道文件:

但是我遇到一个问题,当我单独运行film或者meiju时总会指定到settings里的第一个配置管道,也就是

  • 22
    点赞
  • 56
    收藏
    觉得还不错? 一键收藏
  • 11
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值