爬虫:Scrapy-redis分布式爬虫

scrapy - redis 简介

scrapy-redis 是 scrapy 框架基于 redis 数据库的组件,用于 scrapy 项目的分布式开发和部署。

官方文档:https://scrapy-redis.readthedocs.io/en/stable/

源码位置:https://github.com/rmax/scrapy-redis

参考博客:https://www.cnblogs.com/kylinlin/p/5198233.html

优势

  • 分布式爬取
    可以启动多个 spider 工程,相互之间共享单个 redis 的 requests 队列。最适合广泛的多个域名网站的内容爬取。

  • 分布式数据处理
    爬取到的 scrapy 的 item 数据可以推入到 redis 队列中,这意味着你可以根据需求启动尽可能多的处理程序来共享item的队列,进行item数据持久化处理

  • Scrapy 即插即用组件
    Scheduler 调度器 + Duplication 复制 过滤器, Item Pipeline ,基本spider

缺点

Scrapy-Redis 调度的任务是 Request 对象,里面信息量比较大(不仅包含 url ,还有callback 函数、 headers 等信息)

  • 降低爬虫速度
  • 占用 Redis 大量的存储空间
  • 需要一定硬件水平

scrapy - redis 架构

在这里插入图片描述

  • 首先 Slaver 端从 Master 端拿任务( Request 、 url )进行数据抓取, Slaver 抓取数据的同时,产生新任务的 Request 便提交给 Master 处理;
  • Master 端只有一个 Redis 数据库,负责将未处理的 Request 去重和任务分配,将处理后的Request 加入待爬队列,并且存储爬取的数据。

Scrapy-Redis 默认使用的就是这种策略,实现简单,因为任务调度等工作 Scrapy-Redis 都已经帮我
们做好了,我们只需要继承 RedisSpider 、指定 redis_key 就行了。

scrapy - redis 常用配置

# 使用了scrapy_redis的去重组件,在redis数据库里做去重
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
# 使用了scrapy_redis的调度器,在redis里分配请求
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
# 在redis中保持scrapy-redis用到的各个队列,从而允许暂停和暂停后恢复,也就是不清理redis queues
SCHEDULER_PERSIST = True
# 通过配置RedisPipeline将item写入key为 spider.name : items 的redis的list中,供后面的分
# 布式处理item 这个已经由 scrapy-redis 实现,不需要我们写代码,直接使用即可
ITEM_PIPELINES = {
'scrapy_redis.pipelines.RedisPipeline': 100 ,
}
# 指定redis数据库的连接参数
REDIS_HOST = '127.0.0.1'
REDIS_PORT = 6379

scrapy - redis 键名介绍

scrapy-redis 中都是用key-value形式存储数据,其中有几个常见的key-value形式

名称类型含义
项目名:itemslist保存爬虫获取到的数据item 内容是 json 字符串
项目名: dupefilterset用于爬虫访问的URL去重 内容是 40个字符的 url 的hash字符串
项目名:start_urlsList用于获取spider启动时爬取的第一个 url
项目名:requestszset用于scheduler调度处理 requests 内容是 request 对象的序列化 字符串

scrapy - redis 简单实例

在原来非分布式爬虫的基础上,使用 scrapy-redis 简单搭建一个分布式爬虫,过程只需要修改下面文
件:

  • settings.py

  • spider 文件
    继承类:由 scrapy.Spider 修改为 RedisSpider

    start_url 已经不需要了,修改为: redis_key = “xxxxx”

    在 redis 数据库中,设置一个 redis_key 的值,作为初始的 url , scrapy 就会自动在redis 中取出 redis_key 的值,作为初始 url ,实现自动爬取。

添加起始URL:

lpush xxxx:start_urls http:xxxxx.com/xxxx
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值