celery的使用

celery的作用

celery是一种异步框架,它的作用主要有两大块,利用python并发技术,帮我们高效地处理耗时异步任务,让不让主线程
等待,另外一个可以处理定时任务。如下图broker通常是存消息的中间见,user为生产者,通常生产者,有新消息时
会通常把消息扔到brkoker中间件间里,celery的worker就会不断地从中间件里取消息处理任务,workers可以用多个,
task result store 就是存储结果的地方,worker处理完之后就会把结果存在result store中。下面聊聊celry在django中的
应用
celery组件使用流程图在这里插入图片描述

一、django中异步任务

1、在app下面创建tasks.py,文件名只能叫做tasks
2、在django_celery_pro/django_celry_pro/ 下面创建celery.py 文件名只能为celery.py
3、配置settings
4、把目录切换到第一层django_celry_pro下面,启动celery

django_celery_pro
├── app01
│ ├── init.py
│ ├── admin.py
│ ├── apps.py
│ ├── migrations
│ ├── models.py
│ ├── tasks.py
│ ├── tests.py
│ └── views.py
├── db.sqlite3
├── django_celery_pro
│ ├── init.py
│ ├── celery.py
│ ├── settings.py
│ ├── urls.py
│ └── wsgi.py
├── manage.py
├── red.py
└── templates

django_celery_pro/celery.py

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import sys
import os
from celery import Celery

# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'django_stu.settings')

app = Celery('django_stu')

# Using a string here means the worker doesn't have to serialize
# the configuration object to child processes.
# - namespace='CELERY' means all celery-related configuration keys
#   should have a `CELERY_` prefix.
# 确保settings.py中的对于celery的配置都是以CELERY开头
app.config_from_object('django.conf:settings', namespace='CELERY')

# Load task modules from all registered Django app configs.
# 自动发现在django中注册的app下的tasks.py文件
app.autodiscover_tasks()

django_celery_pro/init.py

# 这样可以直接从 django_celery_pro中 导出celery_app
from django_stu.celery import app as celery_app

__all__ = ('celery_app',)

app01/tasks.py

from celery import shared_task


@shared_task
def add(x, y):
    return x + y


@shared_task
def mul(x, y):
    return x * y


@shared_task
def xsum(numbers):
    return sum(numbers)

django_celey_pro/settings.py

.....
# ######################## Celery配置 ########################
# redis消息中间件 redis://:密码@host:ip/redis库
CELERY_BROKER_URL = 'redis://:1234@127.0.0.1:6379/0'
CELERY_ACCEPT_CONTENT = ['json']
# redis存储结果的中间件
CELERY_RESULT_BACKEND = 'redis://:1234@127.0.0.1:6379/1'
CELERY_TASK_SERIALIZER = 'json'

app01/views.py

from django.shortcuts import render, HttpResponse
from app01 import tasks
from django_celery_pro import celery_app
from celery.result import AsyncResult

# 执行异步函数
# 立马返回httpResponse("....")结果,tasks.add.delay的结果存在结果中间件里
def index(request):
    result = tasks.add.delay(1, 8)
    # 记录任务id,可以供下次结果查询到
    task_id = result.id
    print(task_id )
    return HttpResponse(task_id )

# 根据传入的task_id从 结果中间件里获取数据
def check(request):
    task_id &#
当然,我可以给你一个简单的 Celery 使用示例。Celery 是一个强大的分布式任务队列框架,常用于处理异步任务和定时任务。 首先,你需要安装 Celery。你可以使用 pip 命令来安装: ```bash pip install celery ``` 接下来,创建一个 Celery 应用。在你的项目中创建一个名为 `tasks.py` 的文件,并添加以下内容: ```python from celery import Celery # 创建 Celery 应用 app = Celery('tasks', broker='redis://localhost:6379/0') # 定义任务 @app.task def add(x, y): return x + y ``` 这里我们使用了 Redis 作为消息代理(broker),你也可以选择其他的消息代理,比如 RabbitMQ。 接下来,在你的项目根目录下创建一个名为 `celery_worker.py` 的文件,并添加以下内容: ```python from tasks import app # 启动 Celery 工作进程 if __name__ == '__main__': app.worker_main() ``` 现在,你可以启动 Celery 工作进程了。打开终端,进入你的项目根目录,运行以下命令: ```bash celery -A celery_worker worker --loglevel=info ``` 这样,Celery 工作进程就会启动并开始监听任务了。 最后,你可以在你的代码中调用 `add` 任务,示例如下: ```python from tasks import add result = add.delay(4, 6) # 异步调用任务 print(result.get()) # 获取任务结果 ``` 这样就完成了一个简单的 Celery 使用示例。你可以根据自己的需求定义更多的任务,并在你的代码中调用它们。希望对你有帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值