scrapyd+SpiderKeeper+supervisord爬虫部署与管理

本文介绍在CentOS7下部署爬虫,稳定运行爬虫,对爬虫提供Web管理。部署工具是Scrapy官方的scrapyd,Web管理程序是开源项目SpiderKeeper,最后用supervisord提供稳定运行。

scrapyd和scrapyd-client

scrapyd安装配置

Scrapyd是一个用来部署和运行Scrapy项目的应用,由Scrapy的开发者开发。其可以通过一个简单的Json API来部署(上传)或者控制你的项目。Scrapyd可以用来管理多个项目,并且每个项目还可以上传多个版本,不过只有最新的版本会被使用。

scrapyd对python2.7不兼容,从源码下载 https://github.com/scrapy/scrapyd.git 安装scrapyd,改下 scrapyd的utils文件get_spider_list方法,加上str():

env['PYTHONIOENCODING'] = 'UTF-8'
env['SCRAPY_PROJECT'] = str(project)
if pythonpath:
    env['PYTHONPATH'] = str(pythonpath)
if version:
    env['SCRAPY_EGG_VERSION'] = str(version)

python setup.py install。对可能的报错处理https://www.jianshu.com/p/e6945ac9c4c8,
另外CentOS 7.2自带的Python2版本比较老,需要更新pip,更新setuptools、cryptography、pyasn1。

通过源码安装的要在包目录下配置scrapyd:

vi  /usr/lib/python2.7/site-packages/scrapyd-1.2.0-py2.7.egg/scrapyd/default_scrapyd.conf
# 把jobs_to_keep改道100,否则日志默认留5条
jobs_to_keep = 100
# 修改端口为7300
bind_address = 127.0.0.1
http_port   = 7300

此时,在终端scapyd应该会得到一大段正常日志,不过

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值