celery分布式消息队列

安装celery

pip install celery

说明:celery只支持python2.7及以上版本,建议在虚拟环境中安装

Celery是如何工作的?

我在此模拟几个角色来解释下celery+rabbitmq是如何工作的,脑洞来自网络,这里借鉴扩展一番。

假设目前D公司要开半年度工作会议,会议上要指定下半年工作计划,参会人员有老板(下发任务者)、部门主管(celery分配任务者)、部门员工(工作者)、老板秘书(沟通协调者,rabbitmq)。

工作内容是什么?

那么这场会议首先需要确定的是下半年的具体工作内容,这里就称之为“任务内容”。比如老板说我们下半年要开发出一个大数据平台,部门主管举手称赞,表示赞同,于是便愉快地定下了我们具体的工作任务(task),当然开发一个平台算是这个项目的总任务,其中可以细分成很多小的任务,比如大数据算法怎么写?界面怎么设计等。

工作者在哪里?

在确定了具体工作任务后,老板便把这个项目交给了部门主管(celery),而部门主管此时要确定谁去完成这项任务,它可以指定某个人(worker),也可以多个人。

发布工作者在哪里?

毫无疑问发布工作任务的人是老板(下发任务者),他指定了部门主管(celery)什么时候去完成哪些任务,并要求获取反馈信息。但有一点需要注意,老板只管布置任务,但不参与具体的任务分配,那这个任务分配的功能交给谁,没错就是部门主管,即celery。

老板与员工如何沟通项目?

项目之初,老板通过电话将任务传递给部门主管,部门主管通过部门会议将任务分配给员工,过段时间再将任务结果反馈给老板。然而随着任务越来越多,部门主管就发现了一个问题,任务太多了,每个任务还要反馈结果,记不住,也容易弄乱,导致效率下降。
  在召开会议商量了一番后,老板秘书站起来说:“我有个提议,老板每天将布置的任务写成一张纸条放到我这,然后部门主管每天早上来取并交给员工,至于纸条上的任务如何分配,部门主管决定就行,但是要将结果同样写一张纸条反馈给我,我再交给老板。这样老板只负责下发任务,我只负责保管任务纸条,部门主管只负责分配任务并获取反馈,员工只负责按任务工作。大家职责都很明确,效率肯定会更高。”至此,老板与员工的沟通问题也解决了。

演示代码

celery_con.py

from celery import Celery
import time
app = Celery(backend='amqp', broker='amqp://guest:guest@127.0.0.1:5672')

说明:celery_con.py的作用是连接rabbitmq,注意这里是利用celery连接的rabbitmq。映射到场景中,就是秘书与主管,秘书与老板之间传递信息的通道。

task.py(任务内容)

from celery_con import app
@app.task
def test(x, y):
    time.sleep(5)
    return x + y
@app.task
def scan(x,y):
    time.sleep(1)
    return x-y

说明:task.py的功能是定制具体的任务,即“任务内容”,映射到场景中便是“开发一个大数据平台”,其中算法要怎么写?界面要如何设计等等。

celery(部门主管)

celery -A task worker -c 2

说明:此命令为开启work,分配任务;task就是task.py脚本的名称,表示work为task任务服务;-c 2表示同时开启2个work。映射到场景中,便是部门主管实时向秘书获取纸条,并分配给员工。
run.py(老板)

from task import test,scan
res=test.delay(2,2)
print res.get()

说明:run.py的作用是下发消息到rabbitmq队列中,映射到场景中即老板将任务写在纸条上交给秘书。

运行

python run.py

而这里的秘书指的就是rabbitmq。

celery与pika的区别

简单来说,pika其实就是用来连接rabbitmq服务的一个python客户端模块,而rabbitmq本身只有消息存储功能,并没有任务的分配调度。当然在用pika连接rabbitmq的过程也可以任务分配,这需要利用pika模块自己写一个调度代码,也就是相当于自己写一个celery模块。
  celery就是用来分配任务的,主要是做异步任务队列的,但是celery不具备存储的功能,因此需要一种介质去存储消息,所以常常与rabbitmq一起用。

celery高级用法

from task import scan
r=scan.s(2,2)
res=r.delay()
print res.get()

并发下发任务

并发的下发任务,也可以使用for循环。这里指的并发,并不是所有任务一起执行,而是所有任务都下发到队列,而执行的并发数量,取决于work的数量。

from celery import group
from task import scan
g=group( scan.s(i,i) for i in range(10)).delay()
print g.get()

指定下发的队列

有时候我们会遇到多个任务,而每个任务的执行对象不一样,因此需要创建不同的队列去存储任务,这时就需要我们在创建任务、消费任务时指定队列的名称。

配置celery

celery_con.py
from celery import Celery,platforms
RABBITMQ_IP="127.0.0.1"
RABBITMQ_PORT="5672"
RABBITMQ_USER=""
RABBITMQ_PASS=""
app = Celery(
    backend='amqp', 
    broker='amqp://{}:{}@{}:{}'.format(
        RABBITMQ_USER,
        RABBITMQ_PASS,
        RABBITMQ_IP,
        RABBITMQ_PORT,
        ),
    CELERY_ROUTES = {
    'worker.test1': {'queue': 'test1'},
    'worker.test2': {'queue': 'test2'},
    'worker.test3': {'queue': 'test3'},
    },
    )
# 允许celery以root权限启动
platforms.C_FORCE_ROOT = True
app.conf.update(
CELERY_TASK_SERIALIZER='json',
CELERY_RESULT_SERIALIZER='json',
CELERY_IGNORE_RESULT = True,
CELERYD_PREFETCH_MULTIPLIER = 10,
CELERYD_MAX_TASKS_PER_CHILD = 200,
)
指定任务内容

task.py

from celery_con import app
@app.task
def test(x, y):
    time.sleep(5)
    return x + y
@app.task
def scan(x,y):
    time.sleep(1)
    return x-y
下发任务

push_task.py

from celery import group
from task import scan
g=group( scan.s(i,i) for i in range(10)).apply_async(queue='test1')
print g.get()

说明:下发任务时,将会把任务存入rabbitmq的test1队列中。

启动work处理任务

celery_start_work.sh

celery -A task worker --queue=test1

说明:worker工作者将会从rabbitmq的test1队列中获取数据。

celery+rabbitmq优化

忽略结果
我查看rabbitmqweb页面,发现celery每执行一个任务都会产生一个队列,这个队列存放的是这个任务执行的状态,而且这个队列很占内存,只有当客户端执行获取的操作,队列才会消失。

@app.task(ignore_result=True)  #忽略结果,这样就不会产生queue了

celery定时任务(计划任务)

一般情况下,我们会使用linux系统自带的crontab做计划任务,然而在celery中可以用自身的定时任务功能创建计划任务。

创建celery_con.py
from celery import Celery
from celery.schedules import crontab # 计划任务模块
RABBITMQ_IP=""
RABBITMQ_PORT=""
RABBITMQ_USER=""
RABBITMQ_PASS=""
app = Celery(
    backend='amqp',
    broker='amqp://{}:{}@{}:{}'.format(
        RABBITMQ_USER,
        RABBITMQ_PASS,
        RABBITMQ_IP,
        RABBITMQ_PORT,
        ),
    )
app.conf.update(
# 定时任务
beat_schedule={
        # 定时任务1
        "crontab_1": {
            "task": "celery_work.run", # 执行的任务,即celery_work文件的run函数
            "schedule": crontab(minute='*/1'), # 每分钟执行一次
            "args": ("celery_crontab_test",) # 执行任务传入的参数
        },
        # 定时任务2
        # ......
    }
)

说明:关键点在于在app.conf.update里面设置beat_schedule(计划任务),task表示要执行的任务名称,schedule代表计划任务的执行周期,args代表执行任务时所需要传入的参数。schedule具体配置可参考:
http://docs.celeryproject.org/en/latest/reference/celery.schedules.html#celery.schedules.crontab

创建celery_work.py
from celery_con import app
@app.task
def run(msg):
    print msg

说明:导入celery的配置,利用装饰器给run函数设置为celery任务。

执行celery定时任务
celery -A celery_work worker -B

说明:-A代表执行的任务名称(与work文件名称一样),-B表示执行周期任务,只能有一个进程,不能启动多个。

执行结果是,每隔一分钟,输出:celery_crontab_test

celery+rabbitmq 优先级任务

rabbitmq在3.5版本开始支持队列优先级,注意一定要将rabbitmq版本升级为3.5以后的,不然用不了优先级。需要说明一下,这里的优先级有两种,第一种是同一个队列,队列中不同的消息可以设置优先级;第二种是不同队列之间设置优先级。

同一个队列不同消息优先级

对应需求:在work执行常规任务的时候,需要让work执行一些应急任务(突发),因此将一些突发任务push到同一个队列中,但要排在队列首位(优先级高),即先让work执行应急任务。

先在web界面创建一个优先级队列
在这里插入图片描述
可以看到hello队列有Pri标志,表示是一个优先级队列。
在这里插入图片描述

创建celery配置文件:(config.py)

文件写入:

from celery import Celery
from kombu import Exchange, Queue
RABBITMQ_IP=""
RABBITMQ_PORT=""
RABBITMQ_USER=""
RABBITMQ_PASS=""
app = Celery(
    backend='amqp', 
    broker='amqp://{}:{}@{}:{}'.format(
        RABBITMQ_USER,
        RABBITMQ_PASS,
        RABBITMQ_IP,
        RABBITMQ_PORT,
        ),
)
# 相关配置写在这里
app.conf.update(
    CELERY_ACKS_LATE = True,
    CELERYD_PREFETCH_MULTIPLIER = 1,
    CELERYD_MAX_TASKS_PER_CHILD = 500,
    CELERY_ENABLE_REMOTE_CONTROL = False,
    CELERYD_TASK_TIME_LIMIT = 60,
    CELERY_DEFAULT_QUEUE = 'hello',
    CELERY_QUEUES = (
    Queue('hello', Exchange('hello'), routing_key='hello',queue_arguments={'x-max-priority': 10}),   # 队列名称为hello
    ),
)
创建一个简单的测试task:(task.py)

文件写入:

import time
from config import app
@app.task(ignore_result=True)
def run(task):
    print task
    time.sleep(1)
创建一个push任务的py:(push_task.py)

文件写入

from celery import group
from task import run
group( run.s("111111111",) for i in range(10)).apply_async(queue='hello',priority=1) # priority=1 用来设置消息优先级
group( run.s("999999999",) for i in range(10)).apply_async(queue='hello',priority=9) # priority=1 用来设置消息优先级
# 或者也可以用下面的方式push任务:
# for i in range(10):
#     run.apply_async(args=['111'],queue="hello",priority=1)
#     run.apply_async(args=['999'],queue="hello",priority=9)

利用celery创建worker

celery -A task worker -Q hello

说明:从结果可以看出,worker优先执行了优先级为9的消息。

不同队列之间的优先级

对应需求:worker将会获取多个队列中的任务并执行,但对某些队列的执行优先级高,某些队列执行的优先级低。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值