一、什么是Celery
1.1 Celery是什么
Celery是一个简单、灵活且可靠的,处理大量消息的分布式系统,专注于实时处理的异步任务队列,同时也支持任务调度。
Celery的架构由三部分组成,消息中间件(message broker),任务执行单元(worker)和任务执行结果存储(task result store)组成。
消息中间件
Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成。包括,RabbitMQ, Redis等等。
任务执行单元
Worker是Celery提供的任务执行的单元,worker并发的运行在分布式的系统节点中。
任务结果存储
Task result store用来存储Worker执行的任务的结果,Celery支持以不同方式存储任务的结果,包括AMQP, redis等。
另外, Celery还支持不同的并发和序列化的手段。
- 并发:Prefork, Eventlet, gevent, threads/single threaded
- 序列化:pickle, json, yaml, msgpack. zlib, bzip2 compression, Cryptographic message signing 等等。
1.2 使用场景
celery是一个强大的 分布式任务队列的异步处理框架,它可以让任务的执行完全脱离主程序,甚至可以被分配到其他主机上运行。我们通常使用它来实现异步任务(async task)和定时任务(crontab)。
异步任务:将耗时操作任务提交给Celery去异步执行,比如发送短信/邮件、消息推送、音视频处理等等。
定时任务:定时执行某件事情,比如每天数据统计。
1.3 Celery具有以下优点
Simple(简单)
Celery 使用和维护都非常简单,并且不需要配置文件。
Highly Available(高可用)
woker和client会在网络连接丢失或者失败时,自动进行重试。并且有的brokers 也支持“双主”或者“主/从”的方式实现高可用。
Fast(快速)
单个的Celery进程每分钟可以处理百万级的任务,并且只需要毫秒级的往返延迟(使用 RabbitMQ, librabbitmq, 和优化设置时)
Flexible(灵活)
Celery几乎每个部分都可以扩展使用,自定义池实现、序列化、压缩方案、日志记录、调度器、消费者、生产者、broker传输等等。
1.4 Celery安装
pip install -U Celery
二、Celery执行异步任务
2.1 基本使用
创建异步任务执行文件celery_task:
import celery
import time
backend='redis://127.0.0.1:6379/1'
broker='redis://127.0.0.1:6379/2'
cel=celery.Celery('test',backend=backend,broker=broker)
@cel.task
def send_email(name):
print("向%s发送邮件..."%name)
time.sleep(5)
print("向%s发送邮件完成"%name)
return "ok"
创建执行任务文件,produce_task.py:
from celery_task import send_email
result = send_email.delay("yuan")
print(result.id)
result2 = send_email.delay("alex")
print(result2.id)
启动Redis服务
在当前目录下打开命令提示符,输入:
celery worker -A celery_task -l info
或
celery worker -A celery_task --loglevel=info
win10上运行celery4.x就会出现“
ValueError: not enough values to unpack (expected 3, got 0)”
需要安装eventlet
pip install eventlet
再在命令行下输入:
celery worker -A celery_task --loglevel=info -P eventlet
2.2 多任务结构
celery.py:
from celery import Celery
cel = Celery('celery_demo',
broker='redis://127.0.0.1:6379/1',
backend='redis://127.0.0.1:6379/2',
# 包含以下两个任务文件,去相应的py文件中找任务,对多个任务做分类
include=['celery_tasks.task01',
'celery_tasks.task02'
])
# 时区
cel.conf.timezone = 'Asia/Shanghai'
# 是否使用UTC
cel.conf.enable_utc = False
task01.py,task02.py:
#task01
import time
from celery_tasks.celery import cel
@cel.task
def send_email(res):
time.sleep(5)
return "完成向%s发送邮件任务"%res
#task02
import time
from celery_tasks.celery import cel
@cel.task
def send_msg(name):
time.sleep(5)
return "完成向%s发送短信任务"%name
produce_task.py:
from celery_tasks.task01 import send_email
from celery_tasks.task02 import send_msg
# 立即告知celery去执行test_celery任务,并传入一个参数
result = send_email.delay('yuan')
print(result.id)
result = send_msg.delay('yuan')
print(result.id)
开启work:
celery worker -A celery_tasks -l info -P eventlet
多任务直接启动 celery_tasks 这个包就行了,因为里面必须固定写celery这个文件。
注:celery_tasks是自己创建包的那个名字。
三、Celery执行定时任务
- 创建异步任务执行文件,celery_task.py:
import celery
import time
backend = 'redis://127.0.0.1:6379/1'
broker = 'redis://127.0.0.1:6379/2'
cel = celery.Celery('test', backend=backend, broker=broker)
@cel.task
def send_email(name):
print("向%s发送邮件..." % name)
time.sleep(5)
print("向%s发送邮件完成" % name)
return "ok"
设定时间让celery执行一个定时任务,produce_task.py:
from celery_task import send_email
from datetime import datetime
# 方式一
# v1 = datetime(2020, 3, 11, 16, 19, 00)
# print(v1)
# v2 = datetime.utcfromtimestamp(v1.timestamp())
# print(v2)
# result = send_email.apply_async(args=["egon",], eta=v2)
# print(result.id)
# 方式二
ctime = datetime.now()
# 默认用utc时间
utc_ctime = datetime.utcfromtimestamp(ctime.timestamp())
from datetime import timedelta
time_delay = timedelta(seconds=5)
task_time = utc_ctime + time_delay
# 使用apply_async并设定时间
result = send_email.apply_async(args=["egon"], eta=task_time)
print(result.id)
启动Redis、启动worker:
celery worker -A celery_task -l info -P eventlet
#celery 5.*的执行下面这句
celery --app=celery_tasks worker -l info -P eventlet
- 多任务结构中celery.py修改如下:
from datetime import timedelta
from celery import Celery
from celery.schedules import crontab
cel = Celery('celery_demo',
broker='redis://127.0.0.1:6379/1',
backend='redis://127.0.0.1:6379/2',
# 包含以下两个任务文件,去相应的py文件中找任务,对多个任务做分类
include=['celery_tasks.task01',
'celery_tasks.task02'
])
# 时区
cel.conf.timezone = 'Asia/Shanghai'
# 是否使用UTC
cel.conf.enable_utc = False
cel.conf.beat_schedule = {
# 名字随意命名
'celery_tasks.task01.send_email': {
# 执行tasks1下的test_celery函数
'task': 'celery_tasks.task01.send_email',
# 每隔5秒执行一次
'schedule': 5,
# 'schedule': crontab(minute="*/1"),
# 'schedule': timedelta(seconds=6),
# 传递参数
'args': ('张三',)
},
# 'celery_tasks.task02.send_msg': {
# 'task': 'celery_tasks.task01.send_email',
# 每年4月11号,8点42分执行
# 'schedule': crontab(minute=42, hour=8, day_of_month=11, month_of_year=4),
# 'args': ('张三',)
# },
}
task01.py,task02.py:
#task01
import time
from celery_tasks.celery import cel
@cel.task
def send_email(res):
time.sleep(5)
return "完成向%s发送邮件任务"%res
#task02
import time
from celery_tasks.celery import cel
@cel.task
def send_msg(name):
time.sleep(5)
return "完成向%s发送短信任务"%name
启动Redis
以上配置完成之后,还有一点非常重要,需要一个任务的生产方,只有worker是不够的。
创建worker:
celery worker -A celery_tasks -l info -P eventlet
#celery 5.*的执行下面这句
celery --app=celery_tasks worker -l info -P eventlet
创建生产者:
celery beat -A celery_tasks -l info
#celery 5.*的执行下面这句
celery --app=celery_tasks -l info
最好先创建消费者(worker),再创建生产者。如果先创建生产者,则再消费者创建之前,生产者就开始生产任务,这就会导致任务的堆积。当消费者创建好了之后,消费这就会马上将堆积的任务一起处理掉。
四、Django中使用Celery
项目根目录创建celery包,目录结构如下:
mycelery/
├── celery_config.py
├── __init__.py
├── celery_init.py
└── sms/
├── __init__.py
├── tasks.py
配置文件celery_config.py:
broker_url = 'redis://127.0.0.1:6379/15'
result_backend = 'redis://127.0.0.1:6379/14'
beat_schedule = {
'mycelery.sms.tasks.schedule_send_sms': {
'task': 'mycelery.sms.tasks.schedule_send_sms',
'schedule': 3,
},
}
在celery_init.py文件中对django的配置文件进行加载
import os
from celery import Celery
# 创建celery实例对象
app = Celery("sms")
# 把celery和django进行组合,识别和加载django的配置文件
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'test_celery_project.settings')
# 通过app对象加载配置
app.config_from_object("mycelery.celery_config")
# 加载任务
# 参数必须必须是一个列表,里面的每一个任务都是任务的路径名称
# app.autodiscover_tasks(["任务1","任务2"])
app.autodiscover_tasks(["mycelery.sms", ])
任务文件tasks.py:
from mycelery.celery_init import app
import time
import logging
log = logging.getLogger("django")
@app.task # name表示设置任务的名称,如果不填写,则默认使用函数名做为任务名
def send_sms(mobile):
"""发送短信"""
print("向手机号%s发送短信成功!" % mobile)
time.sleep(5)
return "send_sms OK"
@app.task # name表示设置任务的名称,如果不填写,则默认使用函数名做为任务名
def send_sms2(mobile):
print("向手机号%s发送短信成功!" % mobile)
time.sleep(5)
return "send_sms2 OK"
# 定时/周期任务
@app.task(name='mycelery.sms.tasks.schedule_send_sms')
def schedule_send_sms():
print("auto send sms to 12345678900.")
return "auto send success."
引用异步任务的视图函数views.py:
from django.http.response import HttpResponse
from mycelery.sms.tasks import send_sms, send_sms2
# Create your views here.
def test(request):
send_sms.delay('10086')
send_sms2.delay('10010')
return HttpResponse('hello world.')
最后启动Redis,启动worker和beat即可。
启动worker:
celery worker -A mycelery.celery_init -l info -P eventlet
#celery 5.*的执行下面这句
celery --app=mycelery.celery_init worker -l info -P eventlet
启动beat:
celery beat -A mycelery.celery_init -l info
#celery 5.*的执行下面这句
celery --app=mycelery.celery_init beat -l info