SpiderKeeper的使用

img_3a1176f54fa3374b8484ea51a3b696b4.jpe
20180522165151556.jpg

之前有一篇文章是讲解scrapyd的使用,但是scrapyd是纯命令行操作,显然很麻烦,现介绍一个开源免费使用的可视化系统。

环境准备

pip install scrapy
pip install scrapyd
pip install scrapyd-client
pip install spiderkeeper

这里作者是在Linux下配置的
新建一个文件夹,进入到文件夹后,输入scrapyd启动scrapyd服务:


img_7d1f467a7140a8a2c61ac0a427d2725c.png
image.png

然后再启动spiderkeeper,命令行输入spiderkeeper:


img_619693ec70a6f379d09550ccd330e209.png
image.png

注:这里只介绍最简单的启动方式,带参数的自定义方法可查阅官方文档。

打开浏览器访问spiderkeeper的地址,我这里是192.168.0.101:5000,然后输入用户名、密码,默认都是admin


img_960ffb2b33dd67f541a8afb63e5e942e.png
image.png

至此,环境准备完毕。

部署爬虫

我的爬虫程序是在自己的windows电脑上的,打开命令行进入到爬虫根目录:
执行命令:scrapyd-deploy --build-egg output.egg生成egg文件。(这里如果不懂建议去看:Scrapyd使用教程

然后在spiderkeeper可视化界面点击creat project:

img_733e3b7986e14d725f3da9f258627325.png
image.png

随便输入一个名字:
img_dbcb25f2d31d195a9869588298ff7446.png
image.png

点击创建,跳到这个界面:
img_a7a921a4494fbc7e29d7a2b3594c70d6.png
image.png

注意:此时我们系统中只有一个首次创建的名为china的项目,如果系统中已经有多个项目了,现在又建了一个,这时要先选择项目,再上传对应的egg文件,选择项目点这里:
img_d96cc28485dd5ad50440bd1419e4d787.png
image.png

这时可以看到已经切换到china项目:


img_91641025830fb95bc0b34d293db932d5.png
image.png

上传egg文件:


img_0810804c0599e9f2675455822e79dc3c.png
image.png

不要忘记点击提交:


img_2929cfa0dd5b474fee3069b89b62370a.png
image.png

上传成功:


img_0290da46d411a3533f1fd9f6e972b4bd.png
image.png

此时,部署完成。

运行爬虫

部署完后,点击 Dashboard 这个按钮,再选择 china 项目,然后点击 RunOnce 按钮创建爬虫:

img_cc0f7e80ee4dc5335e088e9ba2cbe72e.png
image.png

这里参数都默认即可:
img_e05215a1ac6c889d42b703eb1c9b8fd7.png
image.png

点击创建爬虫按钮:然后刷新网页,
img_70297e52045d4206d8526f2eaa775bf8.png
image.png

至此,爬虫运行完毕。
查看日志点 log 即可,停止爬虫点 stop 即可,其他操作请查看官方文档: https://github.com/DormyMo/SpiderKeeper
如果本文有不懂的地方欢迎评论区留言,点赞~ 祝好~。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值