利用scrapy-redis实现分布式爬虫

1 篇文章 0 订阅
1 篇文章 0 订阅

环境要求

  • Python 2.7, 3.4 or 3.5

  • Redis >= 2.8

  • Scrapy >= 1.1

  • redis-py >= 2.10

1. 先安装scrapy-redis

sudo pip3 install scrapy-redis

2. 安装redis

更改设置

$ sudo vi /etc/redis/redis.conf
     ...
     # bind 127.0.0.1
     bind 0.0.0.0  # 接收来自任意IP的请求

重启redis

sudo service redis-server restart

 

3. 安装 redis的可视化工具 redis desktop manager

连接https://pan.baidu.com/s/1miRPuOC?fid=489763908155827

4. 改写spider

#文件为wb.py
import scrapy
from datetime import datetime
from ..items import QuestionItem, AnswerItem
from scrapy_redis.spiders import RedisSpider
import re

class WbSpider(RedisSpider):
    name = 'wb'
    allowed_domains = ['58che.com']
    # start_urls = ['https://bbs.58che.com/cate-1.html']
    redis_key = "wbSpider:start_urls"

首先是改成继承RedisSpider,然后增加一个redis_key是爬虫名字,同时注释掉start_urls,同时使用Redis命令向该列表添加起始爬取点,去掉了start_requests,因为所有的爬虫都是从redis来获取url,所以没有开始请求的地址了

redis-cli
lpush wbSpider:start_urls https://bbs.58che.com/cate-1.html

5.修改setting设置

# Enables scheduling storing requests queue in redis.
ITEM_PIPELINES = {
    'scrapy_redis.pipelines.RedisPipeline': 300
}

# Enables scheduling storing requests queue in redis.
ITEM_PIPELINES = {
    'scrapy_redis.pipelines.RedisPipeline': 300
}

## 爬虫数据采用redis存储,注释掉其他存储设置
# Enables scheduling storing requests queue in redis.
ITEM_PIPELINES = {
    'scrapy_redis.pipelines.RedisPipeline': 300
}

6.部署到不同的电脑上,启动爬虫

scrapy crawl wb

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值