学习Redis之redis集群以及应用场景

本文详细介绍了Redis的集群方案,包括主从复制、哨兵机制确保高可用,以及分布式集群的实现和应用场景。讨论了如何处理数据同步问题、故障转移过程,并提出了缓存设计的更新策略和应对缓存穿透、缓存雪崩的解决方案。
摘要由CSDN通过智能技术生成

目录

Redis 集群以及应用

集群

主从复制

哨兵机制

分布式集群(Cluster)

使用场景

热点数据

会话维持 Session

分布式锁 SETNX

表缓存

消息队列 list

计数器 string

缓存设计

更新策略

更新一致性

缓存粒度

缓存穿透

缓存雪崩


Redis 集群以及应用

集群

主从复制

主从链(拓扑结构)

复制模式

  • 全量复制:Master 全部同步到 Slave

  • 部分复制:Slave 数据丢失进行备份

问题点

  • 同步故障

    • 复制数据延迟(不一致)

    • 读取过期数据(Slave 不能删除数据)

    • 从节点故障

    • 主节点故障

  • 配置不一致

    • maxmemory 不一致:丢失数据

    • 优化参数不一致:内存不一致.

  • 避免全量复制

    • 选择小主节点(分片)、低峰期间操作.

    • 如果节点运行 id 不匹配(如主节点重启、运行 id 发送变化),此时要执行全量复制,应该配合哨兵和集群解决.

    • 主从复制挤压缓冲区不足产生的问题(网络中断,部分复制无法满足),可增大复制缓冲区( rel_backlog_size 参数).

  • 复制风暴

哨兵机制

拓扑图

节点下线

  • 主观下线

    • 即 Sentinel 节点对 Redis 节点失败的偏见,超出超时时间认为 Master 已经宕机。

    • Sentinel 集群的每一个 Sentinel 节点会定时对 Redis 集群的所有节点发心跳包检测节点是否正常。如果一个节点在 down-after-milliseconds 时间内没有回复 Sentinel 节点的心跳包,则该 Redis 节点被该 Sentinel 节点主观下线。

  • 客观下线

    • 所有 Sentinel 节点对 Redis 节点失败要达成共识,即超过 quorum 个统一。

    • 当节点被一个 Sentinel 节点记为主观下线时,并不意味着该节点肯定故障了,还需要 Sentinel 集群的其他 Sentinel 节点共同判断为主观下线才行。

    • 该 Sentinel 节点会询问其它 Sentinel 节点,如果 Sentinel 集群中超过 quorum 数量的 Sentinel 节点认为该 Redis 节点主观下线,则该 Redis 客观下线。

Leader选举

  • 选举出一个 Sentinel 作为 Leader:集群中至少有三个 Sentinel 节点,但只有其中一个节点可完成故障转移.通过以下命令可以进行失败判定或领导者选举。

  • 选举流程

    1. 每个主观下线的 Sentinel 节点向其他 Sentinel 节点发送命令,要求设置它为领导者.

    2. 收到命令的 Sentinel 节点如果没有同意通过其他 Sentinel 节点发送的命令,则同意该请求,否则拒绝。

    3. 如果该 Sentinel 节点发现自己的票数已经超过 Sentinel 集合半数且超过 quorum,则它成为领导者。

    4. 如果此过程有多个 Sentinel 节点成为领导者,则等待一段时间再重新进行选举。

故障转移

  • 转移流程

    1. Sentinel 选出一个合适的 Slave 作为新的 Master(slaveof no one 命令)。

    2. 向其余 Slave 发出通知,让它们成为新 Master 的 Slave( parallel-syncs 参数)。

    3. 等待旧 Master 复活,并使之称为新 Master 的 Slave。

    4. 向客户端通知 Master 变化。

  • 从 Slave 中选择新 Master 节点的规则(slave 升级成 master 之后)

    1. 选择 slave-priority 最高的节点。

    2. 选择复制偏移量最大的节点(同步数据最多)。

    3. 选择 runId 最小的节点。

Sentinel 集群运行过程中故障转移完成,所有 Sentinel 又会恢复平等。Leader 仅仅是故障转移操作出现的角色。

读写分离

定时任务

  • 每 1s 每个 Sentinel 对其他 Sentinel 和 Redis 执行 ping,进行心跳检测。

  • 每 2s 每个 Sentinel 通过 Master 的 Channel 交换信息(pub - sub)。

  • 每 10s 每个 Sentinel 对 Master 和 Slave 执行 info,目的是发现 Slave 节点、确定主从关系。

分布式集群(Cluster)

拓扑图

通讯

集中式

将集群元数据(节点信息、故障等等)几种存储在某个节点上。

  • 优势

    1. 元数据的更新读取具有很强的时效性,元数据修改立即更新

  • 劣势

    1. 数据集中存储

Gossip

寻址分片

hash取模

  • hash(key)%机器数量

  • 问题

    1. 机器宕机,造成数据丢失,数据读取失败

    2. 伸缩性

一致性hash

  • 问题

    1. 一致性哈希算法在节点太少时,容易因为节点分布不均匀而造成缓存热点的问题。

      • 解决方案

        • 可以通过引入虚拟节点机制解决:即对每一个节点计算多个 hash,每个计算结果位置都放置一个虚拟节点。这样就实现了数据的均匀分布,负载均衡。

hash槽

  • CRC16(key)%16384

使用场景

热点数据

        存取数据优先从 Redis 操作,如果不存在再从文件(例如 MySQL)中操作,从文件操作完后将数据存储到 Redis 中并返回。同时有个定时任务后台定时扫描 Redis 的 key,根据业务规则进行淘汰,防止某些只访问一两次的数据一直存在 Redis 中。

例如使用 Zset 数据结构,存储 Key 的访问次数/最后访问时间作为 Score,最后做排序,来淘汰那些最少访问的 Key。

        如果企业级应用,可以参考:阿里云的 Redis 混合存储版

会话维持 Session

        会话维持 Session 场景,即使用 Redis 作为分布式场景下的登录中心存储应用。每次不同的服务在登录的时候,都会去统一的 Redis 去验证 Session 是否正确。但是在微服务场景,一般会考虑 Redis + JWT 做 Oauth2 模块。

其中 Redis 存储 JWT 的相关信息主要是留出口子,方便以后做统一的防刷接口,或者做登录设备限制等。

分布式锁 SETNX

        命令格式:SETNX key value:当且仅当 key 不存在,将 key 的值设为 value。若给定的 key 已经存在,则 SETNX 不做任何动作。

  1. 超时时间设置:获取锁的同时,启动守护线程,使用 expire 进行定时更新超时时间。如果该业务机器宕机,守护线程也挂掉,这样也会自动过期。如果该业务不是宕机,而是真的需要这么久的操作时间,那么增加超时时间在业务上也是可以接受的,但是肯定有个最大的阈值。

  2. 但是为了增加高可用,需要使用多台 Redis,就增加了复杂性,就可以参考 Redlock:Redlock分布式锁

表缓存

        Redis 缓存表的场景有黑名单、禁言表等。访问频率较高,即读高。根据业务需求,可以使用后台定时任务定时刷新 Redis 的缓存表数据。

消息队列 list

        主要使用了 List 数据结构。 List 支持在头部和尾部操作,因此可以实现简单的消息队列。

  1. 发消息:在 List 尾部塞入数据。

  2. 消费消息:在 List 头部拿出数据。

        同时可以使用多个 List,来实现多个队列,根据不同的业务消息,塞入不同的 List,来增加吞吐量。

计数器 string

        主要使用了 INCR、DECR、INCRBY、DECRBY 方法。

        INCR key:给 key 的 value 值增加一 DECR key:给 key 的 value 值减去一

缓存设计

更新策略

  • LRU、LFU、FIFO 算法自动清除:一致性最差,维护成本低。

  • 超时自动清除(key expire):一致性较差,维护成本低。

  • 主动更新:代码层面控制生命周期,一致性最好,维护成本高。

在 Redis 根据在 redis.conf 的参数 maxmemory 来做更新淘汰策略:

  1. noeviction: 不删除策略, 达到最大内存限制时, 如果需要更多内存, 直接返回错误信息。大多数写命令都会导致占用更多的内存(有极少数会例外, 如 DEL 命令)。

  2. allkeys-lru: 所有 key 通用; 优先删除最近最少使用(less recently used ,LRU) 的 key。

  3. volatile-lru: 只限于设置了 expire 的部分; 优先删除最近最少使用(less recently used ,LRU) 的 key。

  4. allkeys-random: 所有key通用; 随机删除一部分 key。

  5. volatile-random: 只限于设置了 expire 的部分; 随机删除一部分 key。

  6. volatile-ttl: 只限于设置了 expire 的部分; 优先删除剩余时间(time to live,TTL) 短的key。

更新一致性

  • 读请求:先读缓存,缓存没有的话,就读数据库,然后取出数据后放入缓存,同时返回响应。

  • 写请求:先删除缓存,然后再更新数据库(避免大量地写、却又不经常读的数据导致缓存频繁更新)。

缓存粒度

  • 通用性:全量属性更好。

  • 占用空间:部分属性更好。

  • 代码维护成本。

缓存穿透

        当大量的请求无命中缓存、直接请求到后端数据库(业务代码的 bug、或恶意攻击),同时后端数据库也没有查询到相应的记录、无法添加缓存。 这种状态会一直维持,流量一直打到存储层上,无法利用缓存、还会给存储层带来巨大压力。

解决方案

  1. 请求无法命中缓存、同时数据库记录为空时在缓存添加该 key 的空对象(设置过期时间),缺点是可能会在缓存中添加大量的空值键(比如遭到恶意攻击或爬虫),而且缓存层和存储层数据短期内不一致;

  2. 使用布隆过滤器在缓存层前拦截非法请求、自动为空值添加黑名单(同时可能要为误判的记录添加白名单).但需要考虑布隆过滤器的维护(离线生成/ 实时生成)。

缓存雪崩

        缓存崩溃时请求会直接落到数据库上,很可能由于无法承受大量的并发请求而崩溃,此时如果只重启数据库,或因为缓存重启后没有数据,新的流量进来很快又会把数据库击倒。

出现后应对

  • 事前:Redis 高可用,主从 + 哨兵,Redis Cluster,避免全盘崩溃。

  • 事中:本地 ehcache 缓存 + hystrix 限流 & 降级,避免数据库承受太多压力。

  • 事后:Redis 持久化,一旦重启,自动从磁盘上加载数据,快速恢复缓存数据。

请求过程

  1. 用户请求先访问本地缓存,无命中后再访问 Redis,如果本地缓存和 Redis 都没有再查数据库,并把数据添加到本地缓存和 Redis;

  2. 由于设置了限流,一段时间范围内超出的请求走降级处理(返回默认值,或给出友情提示)。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值