分布式爬虫的实现

分布式爬虫的实现

  1. 创建爬虫类

    scrapy genspider itcast itcast.cn

  2. 修改继承类为scrapy_reids中的RedisSpider

  3. 删除原有的start_urls

  4. 添加存在start_urls在redis数据库中的键

    from scrapy_redis.spiders import RedisSpider
    
    class ItcastSpider(RedisSpider):
        name = 'itcast'
        allowed_domains = ['itcast.cn']
        # 删除原有的start_urls
        # start_urls = ['http://itcast.cn/']
        
        # 添加存在start_urls在redis数据库中的键
        redis_key = "itcast:start_urls"
    
        def parse(self, response):
            pass
    

    前提:必须实现增量式爬虫的配置

    USER_AGENT = 'scrapy-redis (+https://github.com/rolando/scrapy-redis)'
    
    # 指定了去重的类
    DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
    
    # 制定了调度器的类
    SCHEDULER = "scrapy_redis.scheduler.Scheduler"
    
    # 调度器的内容是否持久化
    SCHEDULER_PERSIST = True
    
    # 多台机器共享的redis的url
    REDIS_URL = "redis://192.168.31.69:6379"
    
  5. 启动

    lpush itcast:start_urls http://www.itcast.cn

    scrapy crawl itcast

RedisCrawlSpier的使用

scrapy genspider -t crawl itcast itcast.cn

修改继承类为RedisCrawlSpier

删除start_urls

添加redis_key

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值