安装celery
pip install celery
说明:celery只支持python2.7及以上版本,建议在虚拟环境中安装
Celery是如何工作的?
我在此模拟几个角色来解释下celery+rabbitmq是如何工作的,脑洞来自网络,这里借鉴扩展一番。
假设目前D公司要开半年度工作会议,会议上要指定下半年工作计划,参会人员有老板(下发任务者)、部门主管(celery分配任务者)、部门员工(工作者)、老板秘书(沟通协调者,rabbitmq)。
工作内容是什么?
那么这场会议首先需要确定的是下半年的具体工作内容,这里就称之为“任务内容”。比如老板说我们下半年要开发出一个大数据平台,部门主管举手称赞,表示赞同,于是便愉快地定下了我们具体的工作任务(task),当然开发一个平台算是这个项目的总任务,其中可以细分成很多小的任务,比如大数据算法怎么写?界面怎么设计等。
工作者在哪里?
在确定了具体工作任务后,老板便把这个项目交给了部门主管(celery),而部门主管此时要确定谁去完成这项任务,它可以指定某个人(worker),也可以多个人。
发布工作者在哪里?
毫无疑问发布工作任务的人是老板(下发任务者),他指定了部门主管(celery)什么时候去完成哪些任务,并要求获取反馈信息。但有一点需要注意,老板只管布置任务,但不参与具体的任务分配,那这个任务分配的功能交给谁,没错就是部门主管,即celery。
老板与员工如何沟通项目?
项目之初,老板通过电话将任务传递给部门主管,部门主管通过部门会议将任务分配给员工,过段时间再将任务结果反馈给老板。然而随着任务越来越多,部门主管就发现了一个问题,任务太多了,每个任务还要反馈结果,记不住,也容易弄乱,导致效率下降。
在召开会议商量了一番后,老板秘书站起来说:“我有个提议,老板每天将布置的任务写成一张纸条放到我这,然后部门主管每天早上来取并交给员工,至于纸条上的任务如何分配,部门主管决定就行,但是要将结果同样写一张纸条反馈给我,我再交给老板。这样老板只负责下发任务,我只负责保管任务纸条,部门主管只负责分配任务并获取反馈,员工只负责按任务工作。大家职责都很明确,效率肯定会更高。”至此,老板与员工的沟通问题也解决了。
演示代码
celery_con.py
from celery import Celery
import time
app = Celery(backend='amqp', broker='amqp://guest:guest@127.0.0.1:5672')
说明:celery_con.py的作用是连接rabbitmq,注意这里是利用celery连接的rabbitmq。映射到场景中,就是秘书与主管,秘书与老板之间传递信息的通道。
task.py(任务内容)
from celery_con import app
@app.task
def test(x, y):
time.sleep(5)
return x + y
@app.task
def scan(x,y):
time.sleep(1)
return x-y
说明:task.py的功能是定制具体的任务,即“任务内容”,映射到场景中便是“开发一个大数据平台”,其中算法要怎么写?界面要如何设计等等。
celery(部门主管)
celery -A task worker -c 2
说明:此命令为开启work,分配任务;task就是task.py脚本的名称,表示work为task任务服务;-c 2表示同时开启2个work。映射到场景中,便是部门主管实时向秘书获取纸条,并分配给员工。
run.py(老板)
from task import test,scan
res=test.delay(2,2)
print res.get()
说明:run.py的作用是下发消息到rabbitmq队列中,映射到场景中即老板将任务写在纸条上交给秘书。
运行
python run.py
而这里的秘书指的就是rabbitmq。
celery与pika的区别
简单来说,pika其实就是用来连接rabbitmq服务的一个python客户端模块,而rabbitmq本身只有消息存储功能,并没有任务的分配调度。当然在用pika连接rabbitmq的过程也可以任务分配,这需要利用pika模块自己写一个调度代码,也就是相当于自己写一个celery模块。
celery就是用来分配任务的,主要是做异步任务队列的,但是celery不具备存储的功能,因此需要一种介质去存储消息,所以常常与rabbitmq一起用。
celery高级用法
from task import scan
r=scan.s(2,2)
res=r.delay()
print res.get()
并发下发任务
并发的下发任务,也可以使用for循环。这里指的并发,并不是所有任务一起执行,而是所有任务都下发到队列,而执行的并发数量,取决于work的数量。
from celery import group
from task import scan
g=group( scan.s(i,i) for i in range(10)).delay()
print g.get()
指定下发的队列
有时候我们会遇到多个任务,而每个任务的执行对象不一样,因此需要创建不同的队列去存储任务,这时就需要我们在创建任务、消费任务时指定队列的名称。
配置celery
celery_con.py
from celery import Celery,platforms
RABBITMQ_IP="127.0.0.1"
RABBITMQ_PORT="5672"
RABBITMQ_USER=""
RABBITMQ_PASS=""
app = Celery(
backend='amqp',
broker='amqp://{}:{}@{}:{}'.format(
RABBITMQ_USER,
RABBITMQ_PASS,
RABBITMQ_IP,
RABBITMQ_PORT,
),
CELERY_ROUTES = {
'worker.test1': {'queue': 'test1'},
'worker.test2': {'queue': 'test2'},
'worker.test3': {'queue': 'test3'},
},
)
# 允许celery以root权限启动
platforms.C_FORCE_ROOT = True
app.conf.update(
CELERY_TASK_SERIALIZER='json',
CELERY_RESULT_SERIALIZER='json',
CELERY_IGNORE_RESULT = True,
CELERYD_PREFETCH_MULTIPLIER = 10,
CELERYD_MAX_TASKS_PER_CHILD = 200,
)
指定任务内容
from celery_con import app
@app.task
def test(x, y):
time.sleep(5)
return x + y
@app.task
def scan(x,y):
time.sleep(1)
return x-y
下发任务
push_task.py
from celery import group
from task import scan
g=group( scan.s(i,i) for i in range(10)).apply_async(queue='test1')
print g.get()
说明:下发任务时,将会把任务存入rabbitmq的test1队列中。
启动work处理任务
celery_start_work.sh
celery -A task worker --queue=test1
说明:worker工作者将会从rabbitmq的test1队列中获取数据。
celery+rabbitmq优化
忽略结果
我查看rabbitmqweb页面,发现celery每执行一个任务都会产生一个队列,这个队列存放的是这个任务执行的状态,而且这个队列很占内存,只有当客户端执行获取的操作,队列才会消失。
@app.task(ignore_result=True) #忽略结果,这样就不会产生queue了
celery定时任务(计划任务)
一般情况下,我们会使用linux系统自带的crontab做计划任务,然而在celery中可以用自身的定时任务功能创建计划任务。
创建celery_con.py
from celery import Celery
from celery.schedules import crontab # 计划任务模块
RABBITMQ_IP=""
RABBITMQ_PORT=""
RABBITMQ_USER=""
RABBITMQ_PASS=""
app = Celery(
backend='amqp',
broker='amqp://{}:{}@{}:{}'.format(
RABBITMQ_USER,
RABBITMQ_PASS,
RABBITMQ_IP,
RABBITMQ_PORT,
),
)
app.conf.update(
# 定时任务
beat_schedule={
# 定时任务1
"crontab_1": {
"task": "celery_work.run", # 执行的任务,即celery_work文件的run函数
"schedule": crontab(minute='*/1'), # 每分钟执行一次
"args": ("celery_crontab_test",) # 执行任务传入的参数
},
# 定时任务2
# ......
}
)
说明:关键点在于在app.conf.update里面设置beat_schedule(计划任务),task表示要执行的任务名称,schedule代表计划任务的执行周期,args代表执行任务时所需要传入的参数。schedule具体配置可参考:
http://docs.celeryproject.org/en/latest/reference/celery.schedules.html#celery.schedules.crontab
创建celery_work.py
from celery_con import app
@app.task
def run(msg):
print msg
说明:导入celery的配置,利用装饰器给run函数设置为celery任务。
执行celery定时任务
celery -A celery_work worker -B
说明:-A代表执行的任务名称(与work文件名称一样),-B表示执行周期任务,只能有一个进程,不能启动多个。
执行结果是,每隔一分钟,输出:celery_crontab_test
celery+rabbitmq 优先级任务
rabbitmq在3.5版本开始支持队列优先级,注意一定要将rabbitmq版本升级为3.5以后的,不然用不了优先级。需要说明一下,这里的优先级有两种,第一种是同一个队列,队列中不同的消息可以设置优先级;第二种是不同队列之间设置优先级。
同一个队列不同消息优先级
对应需求:在work执行常规任务的时候,需要让work执行一些应急任务(突发),因此将一些突发任务push到同一个队列中,但要排在队列首位(优先级高),即先让work执行应急任务。
先在web界面创建一个优先级队列
可以看到hello队列有Pri标志,表示是一个优先级队列。
创建celery配置文件:(config.py)
文件写入:
from celery import Celery
from kombu import Exchange, Queue
RABBITMQ_IP=""
RABBITMQ_PORT=""
RABBITMQ_USER=""
RABBITMQ_PASS=""
app = Celery(
backend='amqp',
broker='amqp://{}:{}@{}:{}'.format(
RABBITMQ_USER,
RABBITMQ_PASS,
RABBITMQ_IP,
RABBITMQ_PORT,
),
)
# 相关配置写在这里
app.conf.update(
CELERY_ACKS_LATE = True,
CELERYD_PREFETCH_MULTIPLIER = 1,
CELERYD_MAX_TASKS_PER_CHILD = 500,
CELERY_ENABLE_REMOTE_CONTROL = False,
CELERYD_TASK_TIME_LIMIT = 60,
CELERY_DEFAULT_QUEUE = 'hello',
CELERY_QUEUES = (
Queue('hello', Exchange('hello'), routing_key='hello',queue_arguments={'x-max-priority': 10}), # 队列名称为hello
),
)
创建一个简单的测试task:(task.py)
文件写入:
import time
from config import app
@app.task(ignore_result=True)
def run(task):
print task
time.sleep(1)
创建一个push任务的py:(push_task.py)
文件写入
from celery import group
from task import run
group( run.s("111111111",) for i in range(10)).apply_async(queue='hello',priority=1) # priority=1 用来设置消息优先级
group( run.s("999999999",) for i in range(10)).apply_async(queue='hello',priority=9) # priority=1 用来设置消息优先级
# 或者也可以用下面的方式push任务:
# for i in range(10):
# run.apply_async(args=['111'],queue="hello",priority=1)
# run.apply_async(args=['999'],queue="hello",priority=9)
利用celery创建worker
celery -A task worker -Q hello
说明:从结果可以看出,worker优先执行了优先级为9的消息。
不同队列之间的优先级
对应需求:worker将会获取多个队列中的任务并执行,但对某些队列的执行优先级高,某些队列执行的优先级低。