scrapy实现分布式

scrapy实现分布式其实主要是需要redis的队列来实现,想做这个,建议先了解下redis的基础形式
我的上篇博客说过,spider的基础流程
在这里插入图片描述
而,分布式其实就是将spider获取的url包装成requests,发送给调度器scheduler的时候,使用redis的队列进行分发,分发给多个单机爬虫调度器,同时将存储的结构化数据保存到redis

  1. 继承自父类为RedisSpider
    2.增加了一个redis_key的键,没有start_urls,因为分布式中,如果每台电脑都请求一次start_url就会重复
    3.多了__init__方法,该方法不是必须的,可以手动指定allow_domains

在这里插入图片描述
然后构建爬虫:
这一步没啥特殊的
最后就是更改setting
在settings中进行配置
将redis的配置好

# 1. 替换原来的请求调度器的实现类,使用 scrapy-redis 中请求调度器
SCHEDULER = "scrapy_redis.scheduler.Scheduler"

# 2. 设置去重类,实现去重的代码规则,会生成 去重指纹 存在 redis 中
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

# 3. 开启增量式
SCHEDULER_PERSIST = True

# 4. 配置redis
REDIS_HOST = "127.0.0.1"
REDIS_PORT = 6379

运行就可以了

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值