scrapy-redis 分布式的部署

环境配置 scrapy-redis
先码好原本爬虫,主机要开启 redis-server, config 文件的 bindip = 127.0.0.1 加 # 注释,protected mode 改为 no。

spider 的 配置,其他照旧。

from scrapy_redis.spiders import RedisCrawlSpider


# 继承引进的 RedisCrawlSpider
class DgSpider(RedisCrawlSpider):
    
    name = 'de'
    # redis_key 代替 starturls
    redis_key = 'de:start_urls'
    allowed_domains = ['digikey.cn']

settings.py

# 启动从 Redis 缓存读取队列, 调度爬虫
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
# 确保所有的爬虫通过 Redis 去重
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
# 调度持久化,不清理 Redis 缓存,允许暂停/启动爬虫
SCHEDULER_PERSIST = True
# 主机地址,主机的话可以注释
REDIS_URL = 'redis://root@192.168.0.155:6379'

如果需要将 item 结果返回到 redis 需要使用 scrapy_redis 提供的 pipelines

ITEM_PIPELINES = {
	'scrapy_redis.pipelines.RedisPipeline'}

启动时候是在 redis-cli 中输入(样式) :

C:\Users\win>redis-cli
127.0.0.1:6379> lpush de:start_urls https://www.digikey.cn/products/zh/test-and-measurement/test-leads-jumper-specialty/626
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值