爬虫 - Scrapy - 分布式爬虫


一、如何实现分布式

  • 安装一个scrapy-redis的组件 : pip install scrapy-redis

1. 实现流程

  • 创建一个工程
  • 创建一个基于CrawlSpider的爬虫文件
  • 修改爬虫文件
    • 导包 : from scrapy_redis.spiders import RedisCrawlSpider
    • 将start_urls和allowed_domains进行注释
    • 添加一个新属性 : redis_key = ‘sun’ , 表示可以被共享的调度器队列的名称
    • 编写数据解析相关操作
    • 将当前爬虫类的父类修改成RedisCrawlSpider
  • 修改爬虫文件
    • 指定使用可以被共享的管道
# 指定管道
ITEM_PIPELINES = {
	'scrapy_redis.pipelines.RedisPipeline' : 400
}
- 指定调度器
# 增加一个去重容器类的配置, 作用使用Redis的set集合来存储请求的指纹数据.
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
# 使用scrapy-redis组件自己的调度器
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
# 配置调度器是否要持久化, 也就是当爬虫结束, 要不要情况Redis中请求队列和去重指纹的set
SCHEDULER_PERSIST = True
  • redis相关操作配置
    • 配置redis的配置文件 :
      • linux或者mac系统 : redis.conf
      • windows : redis.windows.conf
      • 修改 :
        • 注释默认绑定 : bind 127.0.0.1
        • 关闭保护模式 : protected-mode no
      • 结合配置文件开启redis服务
        • redis-server 配置文件
      • 启动客户端 :
        • redis-cli
  • 执行工程:
    • scrapy runspider xxx.py
  • 向调度器的队列中放入一个起始的url :
    • 调度器的队列在redis的客户端中
      • lpush 队列名称 起始url
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值