使用scrapyd部署爬虫

一、scrapyd

pip install scrapyd

需要两个东西:

scrapyd是一个服务器,还需要一个client

二、scrapyd-client:

pip install scrapyd-client

打包本地爬虫,传到scrapyd

三、

修改项目下的scrapy.cfg文件。

[settings]
default = zhisousou.settings

[deploy:mingbo]
url = http://localhost:6800/
project = zhisousou

在安装路径的Scripts目录下会出现一个文件:scrapyd-deploy

新建scrapyd-deploy.bat文件(windows下的问题,linux不需要)

@echo off

#python执行路径                  #scrapyd-deploy路径
"G:\anaconda\python.exe" "G:\anaconda\Scripts\scrapyd-deploy" %1 %2 %3 %4 %5 %6 %7 %8 %9

开始运行

scrapyd-deploy mingbo -p zhisousou

四、教程

https://scrapyd.readthedocs.io/en/stable/api.html#listspiders-json

对爬虫的启动与停止:

$ curl http://localhost:6800/schedule.json -d project=myproject -d spider=somespider   #启动
$ curl http://localhost:6800/cancel.json -d project=myproject -d job=6487ec79947edab326d6db28a2d86511e8247444   #停止
$ curl http://localhost:6800/listversions.json?project=myproject #myproject下的所有爬虫,scrapyd可以部署多个项目。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值