django集成celery

Celery是一个基于分布式消息传递的开源异步任务队列,在django实际应用场景下,往往有一些较为耗时,但并不需要返回值的任务,

例如发送邮件,更新我们自己的统计数据库,这时我们可以将这些任务交由celery管理,以加快网页返回。

本文重点来讲解django+redis+celery的配置,为什么这么配置自行google,例如absolute_import的用处等,另外也可查看官方给出的django-celery配置实例

django项目布局如下:

  proj              
    ├── proj             
    │   ├── __init__.py
    │   ├── settings.py
    │   ├── urls.py          
    │   └── wsgi.py        
    └── manage.py 

1.  新建proj/proj/celery.py文件

import os
from celery import Celery
from django.conf import settings

# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'proj.settings')

app = Celery('proj')

# Using a string here means the worker will not have to
# pickle the object when using Windows.
app.config_from_object('django.conf:settings')
app.autodiscover_tasks(lambda: settings.INSTALLED_APPS)


@app.task(bind=True)
def debug_task(self):
    print('Request: {0!r}'.format(self.request))

  

2.  在proj/proj/__init__.py 模块中导入这个 Celery 实例,以确保当 Django 启动时可以加载这个 app

并且 @shared_task 装饰器也能使用。

from .celery import app as celery_app

__all__ = ['celery_app']

  

3. settings.py配置

# celery settings
# Broker
BROKER_URL = 'redis://127.0.0.1:6379/1'
# Result
# CELERY_RESULT_BACKEND = 'redis://127.0.0.1:6379/2'

#: Only add pickle to this list if your broker is secured
#: from unwanted access (see userguide/security.html)
CELERY_ACCEPT_CONTENT = ['json']
CELERY_TASK_SERIALIZER = 'json'
CELERY_RESULT_SERIALIZER = 'json'

  

4. 在各app下创建tasks.py文件,注意此处只能以tasks命名

 

from celery import shared_task


@shared_task
def add(x, y):
    return x + y

# pv uv 统计案例
from django.db.models import F

from .models import Post

@app.task
def increase_pv(post_id):
    return Post.objects.filter(id=post_id).update(pv=F('pv')+1)

  

5. views.py中引入即可

from .tasks import add


add.delay(*args)  

6. 启动Worker

在django项目根路径下,键入

$ celery worker -A proj -l info

 

-------------------------------------

bug 记录,真实环境centos部署没有问题。

环境 win10,celery==4.3.0,redis==3.2.1(celery版本要求redis>3.2.0)

启动worker成功,但执行异步任务失败

报ValueError: not enough values to unpack (expected 3, got 0)

解决方式

$ pip install eventlet

$celery worker -A proj -l info -P eventlet

 

转载于:https://www.cnblogs.com/zenan/p/10689567.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值