1.简单例子
# app.py
from celery import Celery
celery = Celery('app',
broker='localhost:6379/0',
backend='localhost:6379/1')
# 第一个参数: 文件名或者__name__,或者应用名app.name
# broker: 消息代理
# backend: 存储结果位置
# 任务函数
@celery.task
def add(x, y):
return x + y
# add.name: app.add
# 在终端启动worker
>>> celery worker -A app -l info
# -A: app 应用位置(应用名) 本例中为app
# -l: loglevel 日志级别: debug| |info| warning| error|critical|fatal
# 另打开一个终端
# 发布任务
>>> from app import add
>>> add.delay(1, 2)
<AsyncResult: f1fc9cf4-9f86-4f6e-9017-e6411343e58c>
2.@celery.task
@celery.task(name='tasks.add')
# 修改名称: app.add --> tasks.add
3.配置文件
# config.py
# 配置broker(消息代理)
BROKER_URL = 'redis://localhost:6379/0'
# 配置结果存储位置
CELERY_RESULT_BACKEND = 'redis://localhost:6379/1'
# 配置任务序列化和反序列化方案:
# pickle(python内置--celery不接受此方案)
# json
# yaml(在python中性能不如json)
# msgpack(二进制类json序列化方案)
CELERY_TASK_SERIALIZER = 'json'
# 配置结果的序列化方案
CELERY_RESULT_SERIALIZER = 'json'
# 配置任务过期时间(包括任务和结果) -- 本例中为1小时
CELERY_TASK_RESULT_EXPIRES = 60 * 60
# 配置指定接受的内容类型
CELERY_ACCEPT_CONTENT = ['json', 'msgpack']
4. 使用队列
from kombu import Queue
# 定义任务队列
CELERY_QUEUES = (
# 设置队列名, rounting_key名
# 路由键以tasks为开头的消息都进入default队列
# 第一个参数可以自定义,第二个也可以自定义
Queue('default', routing_key='tasks.add'),
)
# 定义任务的路由
CELERY_ROUTES = {
'app.add': {
'queue': 'default',
'routing_key': 'tasks.add',
}
}
# 启动work
>>> celery worker -A app -Q default -l info