基于scrapy-redis两种形式的分布式爬虫

1.scrapy框架是否可以自己实现分布式?

  • 不可以。原因有二。

其一:因为多台机器上部署的scrapy会各自拥有各自的调度器,这样就使得多台机器无法分配start_urls列表中的url。(多台机器无法共享同一个调度器)
其二:多台机器爬取到的数据无法通过同一个管道对数据进行统一的数据持久出存储。(多台机器无法共享同一个管道)

2.基于scrapy-redis组件的分布式爬虫

  • scrapy-redis组件中为我们封装好了可以被多台机器共享的调度器和管道,我们可以直接使用并实现分布式数据爬取。

  • 实现方式:

  1. 基于该组件的RedisSpider类

  2. 基于该组件的RedisCrawlSpider类

3.分布式实现流程:上述两种不同方式的分布式实现流程是统一的

  1. 下载scrapy-redis组件:pip install scrapy-redis

  2. redis配置文件的配置:

  • 注释该行:bind 127.0.0.1,表示可以让其他ip访问redis

  • 将yes该为no:protected-mode no,表示可以让其他ip操作redis

  1. 修改爬虫文件中的相关代码:
  • 将爬虫类的父类修改成基于RedisSpider或者RedisCrawlSpider。注意:如果原始爬虫文件是基于Spider的,则应该将父类修改成RedisSpider,如果原始爬虫文件是基于CrawlSpider的,则应该将其父类修改成RedisCrawlSpider。

  • 注释或者删除start_urls列表,切加入redis_key属性,属性值为scrpy-redis组件中调度器队列的名称

  1. 在配置文件中进行相关配置,开启使用scrapy-redis组件中封装好的管道
  ITEM_PIPELINES = {
      'scrapy_redis.pipelines.RedisPipeline': 400
  }
  1. 在配置文件中进行相关配置,开启使用scrapy-redis组件中封装好的调度器
'''
遇到问题没人解答?小编创建了一个Python学习交流QQ群:778463939
寻找有志同道合的小伙伴,互帮互助,群里还有不错的视频学习教程和PDF电子书!
'''
  # 使用scrapy-redis组件的去重队列
  DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

  # 使用scrapy-redis组件自己的调度器
  SCHEDULER = "scrapy_redis.scheduler.Scheduler"

  # 是否允许暂停
  SCHEDULER_PERSIST = True
  1. 在配置文件中进行爬虫程序链接redis的配置:
  REDIS_HOST = 'redis服务的ip地址'
  REDIS_PORT = 6379
  REDIS_ENCODING = ‘utf-8’
  REDIS_PARAMS = {‘password’:123456}
  1. 开启redis服务器:redis-server 配置文件

  2. 开启redis客户端:redis-cli

  3. 运行爬虫文件:scrapy runspider SpiderFile

  4. 向调度器队列中扔入一个起始url(在redis客户端中操作):lpush redis_key属性值 起始url

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值