手把手教你使用爬虫管理工具|Scrapyd的使用

Scrapyd-网页版分布爬虫管理器

 

blob.png

 

scrapyd英文文档:https://scrapyd.readthedocs.io/en/stable/

scrapyd中文文档:https://piaosanlang.gitbooks.io/spiders/05day/section5.3.html

项目地址:https://github.com/scrapy/scrapyd

 

 

前言

 

      今天介绍的是scrapyd,是scrapy项目下的一个子项目,主要是用来便于管理分布式爬虫,根据上一篇分布式scrapy爬虫我们可以知道,我们写好分布式爬虫之后往往需要放到多个爬虫服务器上,当然也是可以放在一个服务器上,但是多个爬虫服务同时开启管理起来就比较麻烦,今天介绍的scrapyd就是用来管理多个并行爬虫的工具。

 

准备

 

  • 电脑一台

  • 服务器一台(也可以不用)

  • 之前的scrapy项目----news

 

 <

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值