创建分布式爬虫的步骤

1.在服务器上安装scrapyd :pip3 install scrapyd 

2.从usr/local/lib/python3.5/dist-package/scrapyd拷贝出defalt_scrapyd.conf放到etc/scrapyd/scrapy.conf

3.修改etc/scrapyd/scrapy.conf下的bind_address 为本机地址

4.重新安装twisted

pip uninstall twisted \ pip install tweisted==18.9.0#默认版本太高intxxx的错误

5.在开发的电脑上安装 pip install scrapyd-client 

6.修改scrapy/script/scrapyd-deploy 改为scrapy-deploy.py

7.在项目中找到scrapy.cfg然后配置如下:

setting中修改 服务器地址

[deploy:lanjia01]
url = http://localhost:6800/  #分布式多服务器IP地址
project = lanjia01
#[deploy:lanjia02] 
#url = http://localhost:6800/ #服务器IP地址 
#project = lanjia01

8.在目录的所在路径生成版本号: scrapyd-deploy default -p lianjia(为scrapy.cfg中的project项目名称);分布式部署 scrapyd-deploy  -a 部署到服务器上前提是服务器上已经运行了 scrapyd

9.下载curl安装打开bin/curl.exe

curl for Windows

10.在cmd中用命令发布爬虫

运行爬虫 linux:curl http:localhost:6800/schedule.json/ -d project=lianjia -d

关闭爬虫 linux:  curl http:localhost:6800/cancel.json/ -d project=lianjia -d job=xxxx

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值