1. 简介
1.1 定义
scrapyd
是一个用于部署和运行scrapy
爬虫的程序,它允许你通过JSON API
来部署爬虫项目和控制爬虫运行,scrapyd是一个守护进程,监听爬虫的运行和请求,然后启动进程来执行它们
所谓json api本质就是post请求的webapi
2. 使用
2.1 安装
scrapyd服务端:
pip install scrapyd
scrapyd客户端:
pip install scrapyd-client
2.2 启动
- 在
scrapy
项目路径下 启动scrapyd
的命令:
sudo scrapyd
- 启动之后就可以打开本地运行的
scrapyd
,浏览器中访问本地6800端口可以查看scrapyd
的监控界面
- 点击job可以查看任务监控界面
3. 配置
- 配置需要部署的项目
编辑需要部署的项目的scrapy.cfg
文件(需要将哪一个爬虫部署到scrapyd
中,就配置该项目的该文件)
[deploy:部署名(部署名可以自行定义)]
url = http://localhost:6800/
project = 项目名(创建爬虫项目时使用的名称)
- 部署项目到
scrapyd
- 同样在
scrapy
项目路径下执行:
scrapyd-deploy 部署名(配置文件中设置的名称) -p 项目名称
- 部署成功之后就可以看到部署的项目
- 管理
scrapy
项目
- 启动项目:
curl http://localhost:6800/schedule.json -d project=project_name -d spider=spider_name
- 关闭爬虫:
curl http://localhost:6800/cancel.json -d project=project_name -d job=jobid
注意:curl
是命令行工具,如果没有则需要额外安装
4. 使用requests
模块控制scrapy
项目
import requests
def start_spider(project_name, spider_name):
"""启动scrapyd中的爬虫
"""
# 1. 构建启动scrapyd的爬虫
url = 'http://localhost:6800/schedule.json -d project=project_nae -d job=jobid'
# 2. 构建请求体字典
post_body = {
'project': project_name,
'spider': spider_name,
}
# 3. 利用requests模块发送post请求
resp = requests.post(url, data=post_body)
print(response.content.decode())
def close_project(project_name, job_id):
""""关闭爬虫"""
# 构建停止爬虫url地址
url = 'http://localhost:6800/cancel.json'
post_body = {
'project': 项目名,
'job': 启动爬虫时返回的jobid,
}
resp = requests.post(url, data=post_body)
print(resp.content.decode())
if __name__ = "main":
start_project("itcast",
4. 其他webapi
- curl
http://localhost:6800/listprojects.json
(列出项目) - curl
http://localhost:6800/listspiders.json?project=myspider
(列出爬虫) - curl
http://localhost:6800/listjobs.json?project=myspider
(列出job) - curl
http://localhost:6800/cancel.json -d project=myspider -d job=tencent
(终止爬虫,该功能会有延时或不能终止爬虫的情况,此时可用kill -9杀进程的方式中止) scrapyd
还有其他webapi
,百度搜索了解更多