python celery 中 redis集群sentinel 使用 《实践 踩坑》

本文介绍了如何在Python应用中使用Redis Sentinel集群,包括Scrapy与Celery两个场景。通过Sentinel进行高可用配置,确保数据的稳定存储和任务的可靠执行。详细配置代码已给出。
摘要由CSDN通过智能技术生成

https://github.com/leffss/ScrapyRedisBloomFilterBlockCluster

https://pypi.org/project/scrapy-redis-sentinel/   scrapy  使用redis 哨兵

import redis
from redis.sentinel import Sentinel

python 中使用  redis哨兵
class RedisClient(object):
    '''初始化Redis数据库'''
    def __init__(self,TYPE, host=REDIS_HOST, port=REDIS_PORT, password=REDIS_PASSWORD,db=0):
       # self.db = redis.StrictRedis(host=host, port=port, password=password, decode_responses=True, db=db)
        self.db = Sentinel([('172.20.0.252', 26079), ('172.20.0.252', 26080),('172.20.0.252', 26081)], socket_timeout=0.5)
        if TYPE=='write':
            self.db = self.db.master_for('local-mas

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Celery是一个Python分布式任务队列框架,而Redis是一个高性能的键值存储数据库。当它们结合在一起时,可以构建一个强大的分布式任务队列系统。 CeleryRedis集群的结合可以提供以下功能: 1. 异步任务处理:Celery可以将任务异步地发送到Redis集群,然后由工作节点处理。这样可以避免任务阻塞主线程,提高系统的响应速度。 2. 分布式任务调度:Redis集群可以作为Celery的消息代理,负责存储和传递任务消息。多个Celery工作节点可以从Redis集群获取任务,并进行并行处理。 3. 任务结果存储:Celery可以将任务的执行结果存储在Redis集群,以便后续查询和使用。 4. 任务队列监控:Redis集群可以提供监控和管理Celery任务队列的功能,例如查看队列长度、清理过期任务等。 为了搭建CeleryRedis集群,你需要进行以下步骤: 1. 安装和配置Redis集群:根据你的需求,可以选择使用Redis SentinelRedis Cluster来搭建Redis集群。配置好集群后,确保所有节点都正常运行。 2. 安装和配置Celery使用pip安装Celery库,并在Celery配置文件指定Redis集群的连接信息。 3. 编写任务代码:定义你的任务函数,并使用Celery的装饰器将其注册为Celery任务。 4. 启动Celery工作节点:在每个工作节点上启动Celery的工作进程,它们将从Redis集群获取任务并执行。 5. 发布和调度任务:在你的应用程序使用Celery的API将任务发布到Redis集群,并设置任务的调度规则。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值