python 通用管理系统_分布式通用爬虫管理平台 Crawlab

Crawlab是一个基于Celery的爬虫管理平台,支持多种编程语言和爬虫框架。它拥有节点(类似Celery的Worker)、自动发现爬虫项目、部署和运行爬虫、任务管理和日志查看等功能。前端基于Vue-Element-Admin,后端使用Flask提供API。Crawlab通过任务ID关联爬虫数据,支持MongoDB存储。相比于其他依赖Scrapyd的平台,Crawlab更加通用和灵活。
摘要由CSDN通过智能技术生成

Crawlab

基于 Celery 的爬虫分布式爬虫管理平台,支持多种编程语言以及多种爬虫框架.

截图

首页

爬虫列表

爬虫详情 - 概览

任务详情 - 抓取结果

架构

Crawlab 的架构跟 Celery 非常相似,但是加入了包括前端、爬虫、Flower 在内的额外模块,以支持爬虫管理的功能。

节点

节点其实就是 Celery 中的 Worker。一个节点运行时会连接到一个任务队列(例如 Redis )来接收和运行任务。所有爬虫需要在运行时被部署到节点上,用户在部署前需要定义节点的 IP 地址和端口。

爬虫

自动发现

在PROJECT_SOURCE_FILE_FOLDER作为爬虫项目所在的目录。Crawlab 后台程序会自动发现这些爬虫项目并储存到数据库中。是不是很方便?

部署爬虫

所有爬虫需要在抓取前被部署当相应当节点中。在"爬虫详情"页面点击"Deploy"按钮,爬虫将被部署到所有有效到节点中。

运行爬虫

部署爬虫之后,你可以在"爬虫详情"页面点击"Run"按钮来启动爬虫。一个爬虫任务将被触发,你可以在任务列表页面中看到这个任务。

任务

任务被触发并被节点执行。用户可以在任务详情页面中看到任务到状态、日志和抓取结果。

后台应用

这是一个 Flask 应用,提供了必要的 API 来支持常规操作,例如 CRUD、爬虫部署以及任务运行。每一个节点需要启动 Flask 应用来支持爬虫部署。运行python manage.py app或python ./bin/run_app.py来启动应用。

中间者

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值