scrapy分布式爬虫设置

#启用Redis调度存储请求队列

SCHEDULER = "scrapy_redis.scheduler.Scheduler"

 

#确保所有的爬虫通过Redis去重

DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

 

#默认请求序列化使用的是pickle 但是我们可以更改为其他类似的。PS:这玩意儿2.X的可以用。3.X的不能用

#SCHEDULER_SERIALIZER = "scrapy_redis.picklecompat"

 

#不清除Redis队列、这样可以暂停/恢复 爬取

#SCHEDULER_PERSIST = True

 

#使用优先级调度请求队列 (默认使用)

#SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.PriorityQueue'

#可选用的其它队列

#SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.FifoQueue'

#SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.LifoQueue'

 

#最大空闲时间防止分布式爬虫因为等待而关闭

#这只有当上面设置的队列类是SpiderQueue或SpiderStack时才有效

#并且当您的蜘蛛首次启动时,也可能会阻止同一时间启动(由于队列为空)

#SCHEDULER_IDLE_BEFORE_CLOSE = 10

 

#将清除的项目在redis进行处理

ITEM_PIPELINES = {

    'scrapy_redis.pipelines.RedisPipeline': 300

}

 

#序列化项目管道作为redis Key存储

#REDIS_ITEMS_KEY = '%(spider)s:items'

 

#默认使用ScrapyJSONEncoder进行项目序列化

#You can use any importable path to a callable object.

#REDIS_ITEMS_SERIALIZER = 'json.dumps'

 

#指定连接到redis时使用的端口和地址(可选)

#REDIS_HOST = 'localhost'

#REDIS_PORT = 6379

 

#指定用于连接redis的URL(可选)

#如果设置此项,则此项优先级高于设置的REDIS_HOST 和 REDIS_PORT

#REDIS_URL = 'redis://user:pass@hostname:9001'

 

#自定义的redis参数(连接超时之类的)

#REDIS_PARAMS  = {}

 

#自定义redis客户端类

#REDIS_PARAMS['redis_cls'] = 'myproject.RedisClient'

 

#如果为True,则使用redis的'spop'进行操作。

#如果需要避免起始网址列表出现重复,这个选项非常有用。开启此选项urls必须通过sadd添加,否则会出现类型错误。

#REDIS_START_URLS_AS_SET = False

 

#RedisSpider和RedisCrawlSpider默认 start_usls 键

#REDIS_START_URLS_KEY = '%(name)s:start_urls'

 

#设置redis使用utf-8之外的编码

#REDIS_ENCODING = 'latin1'

 

请各位小伙伴儿自行挑选需要的配置写到项目的settings.py文件中。

转载于:https://www.cnblogs.com/yitiaodahe/p/9246676.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Scrapy是一个功能强大的Python网络爬虫框架,支持分布式爬虫分布式爬虫是将任务分发给多个机器或节点来执行,可以提高爬虫效率和速度,避免单点故障。 一个Scrapy分布式爬虫的实例通常由一个爬虫节点(master)和多个工作节点(slave)组成。爬虫节点负责任务分配和调度,每个工作节点则负责实际的网页抓取和数据提取工作。爬虫节点和工作节点之间通过网络通信来协作完成任务。 实现Scrapy分布式爬虫需要以下步骤: 1. 在settings.py文件中配置分布式相关的参数,如REDIS_URL、SCHEDULER_PERSIST、DUPEFILTER_CLASS、SCHEDULER、ITEM_PIPELINES等。 2. 创建一个爬虫节点和多个工作节点,可以在不同的机器上运行。启动爬虫节点时,通过命令行传入参数`scrapy crawl [spider_name] -s JOBDIR=[job_directory]`来指定任务保存的目录。 3. 在工作节点上启动爬虫,同样需要指定任务目录和节点标识符。命令行参数格式如下:`scrapy runspider [spider_name] -s JOBDIR=[job_directory] -s NODE_ID=[node_id]` 4. 每个工作节点爬取网页后,会把提取到的数据发送给爬虫节点。爬虫节点可以对数据进行去重和存储等操作,也可以把任务分配给其他可用的工作节点。 5. 爬虫节点可以通过web接口实时监控任务状态和进度,也可以在任务完成后生成报告并邮件通知。 Scrapy分布式爬虫可以加速数据抓取、处理和存储,提高效率和可靠性。但是需要注意,分布式爬虫需要配合高速网络和高性能计算机使用,否则可能会出现性能瓶颈和任务阻塞的情况。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值