celery入门介绍

本文是关于Celery分布式任务队列的快速入门,涵盖了Celery的基本概念、在项目中的使用方法,包括启用多个workers、定时任务以及与Django的结合。Celery是一个基于Python的异步任务队列,适用于需要异步处理的任务,如批量操作和定时任务。配置简单,支持RabbitMQ或Redis作为消息中间件。同时,文章介绍了如何在Django中设置定时任务和使用celery beat调度器。
摘要由CSDN通过智能技术生成

Celery 分布式任务队列快速入门

(参考文献:https://mp.weixin.qq.com/s?__biz=MzA3NDk1NjI0OQ==&mid=2247483737&idx=1&sn=3f44134e630408c9b950f7d513722059&chksm=9f76adefa80124f94d0d0faa8751530636cb9863e9af9d6c56475719b57c105aa611423d5656&scene=0&key=fe4410a4c5efc39c0e8446813f2c912b96cf642896a427c38fa7696c16c05e0d71aa6d459a3dc06323635f70f446f624&ascene=0&uin=MjIxMzU3Nzk0Mw==&devicetype=iMac+MacBookPro11,1+OSX+OSX+10.11.5+build(15F34)&version=11020201&pass_ticket=JHZTvo8aIbGsUd9a9yaAEFOv3sC+l/v3QZQCZ/jJTAGDTmE+NNNGgg3PKPAGT7Fb)

https://www.rapospectre.com/blog/celery-user-guide(大牛)

本节内容

Celery介绍和基本使用

在项目中如何使用celery

启用多个workers

Celery 定时任务

与django结合

通过django配置celery periodic task

 

 

一、Celery介绍和基本使用 

Celery 是一个 基于python开发的分布式异步消息任务队列,通过它可以轻松的实现任务的异步处理, 如果你的业务场景中需要用到异步任务,就可以考虑使用celery, 举几个实例场景中可用的例子:

  1. 你想对100台机器执行一条批量命令,可能会花很长时间 ,但你不想让你的程序等着结果返回,而是给你返回 一个任务ID,你过一段时间只需要拿着这个任务id就可以拿到任务执行结果, 在任务执行ing进行时,你可以继续做其它的事情。 
  2. 你想做一个定时任务,比如每天检测一下你们所有客户的资料,如果发现今天 是客户的生日,就给他发个短信祝福

 

Celery 在执行任务时需要通过一个消息中间件来接收和发送任务消息,以及存储任务结果, 一般使用rabbitMQ or Redis,后面会讲

1.1 Celery有以下优点:

  1. 简单:一单熟悉了celery的工作流程后,配置和使用还是比较简单的
  2. 高可用:当任务执行失败或执行过程中发生连接中断,celery 会自动尝试重新执行任务
  3. 快速:一个单进程的celery每分钟可处理上百万个任务
  4. 灵活: 几乎celery的各个组件都可以被扩展及自定制

Celery基本工作流程图

 

1.2 Celery安装使用

Celery的默认broker是RabbitMQ, 仅需配置一行就可以

然后进行配置,一般都在项目的config.py文件里配置:

broker_url = 'amqp://guest:guest@localhost:5672//'

rabbitMQ 没装的话请装一下,安装看这里  http://docs.celeryproject.org/en/latest/getting-started/brokers/rabbitmq.html#id3

 

使用Redis做broker也可以

安装redis组件

$ pip install -U "celery[redis]"

 

配置

Configuration is easy, just configure the location of your Redis database:

app.conf.broker_url = 'redis://localhost:6379/0'( (配置很简单,只要配置你的Redis数据库的位置:))

Where the URL is in the format of:

redis://:password@hostname:port/db_number(配置redis数据库,配置数据库储存结果)

all fields after the scheme are optional, and will default to localhost on port 6379, using database 0.

如果想获取每个任务的执行结果,还需要配置一下把任务结果存在哪

If you also want to store the state and return values of tasks in Redis, you should configure these settings:

app.conf.result_backend = 'redis://localhost:6379/0'

 

1. 3 开始使用Celery啦  

安装celery模块

$ pip install celery

个celery application 用来定义你的任务列表

创建一个任务文件就叫tasks.py吧

from celery import Celery
import time 

app = Celery('tasks', #创建了一个celery的实例app
broker='redis://localhost', #指定消息中间件用redis
backend='redis://localhost')#指定储存用redis

@app.task
def add(x,y):
    print("running...",x,y) #模拟耗时操作
    time.sleep()
    return x+y

 

启动Celery Worker来开始监听并执行任务

$ celery -A tasks worker --loglevel=info

#这里tasks指项目存放app的文件夹

执行命令详解

celery -A app.celery_tasks.celery worker -Q queue --loglevel=info

1.A参数指定celery对象的位置,该app.celery_tasks.celery指的	是app包下面的celery_tasks.py模块的              celery实例,注意一定是初始化后的实例,

2.Q参数指的是该worker接收指定的队列的任务,这是为了当多个队列有不同的任务时可以独立;如果不设会接收所有的队列的任务;

3.l参数指定worker的日志级别;


 

调用任务

再打开一个终端, 进行命令行模式,调用任务  

1

2

>>> from tasks import add

>>> add.delay(44)

看你的worker终端会显示收到 一个任务,此时你想看任务结果的话,需要在调用 任务时 赋值个变量

1

>>> result = add.delay(44)

The ready() method returns whether the task has finished processing or not:(ready()方法返回任务是否完成处理:

>>> result.ready()
False

You can wait for the result to complete, but this is rarely used since it turns the asynchronous call into a synchronous one:

您可以等待结果完成,但这很少使用,因为它将异步调用转换为同步调用:

>>> result.get(timeout=1)
8

In case the task raised an exception, get() will re-raise the exception, but you can override this by specifying

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值