java redis集群 demo_JavaGuide/redis集群以及应用场景.md at master · myJavaDemo/JavaGuide · GitHub...

相关阅读:

Redis 集群以及应用

集群

主从复制

主从链(拓扑结构)

ea1f9ccdd0ba87a1f3717eb2b8b4c5c5.png

9ceb0b7bb11b426bac938b354288f808.png

复制模式

全量复制:master 全部同步到 slave

部分复制:slave 数据丢失进行备份

问题点

同步故障

复制数据延迟(不一致)

读取过期数据(Slave 不能删除数据)

从节点故障

主节点故障

配置不一致

maxmemory 不一致:丢失数据

优化参数不一致:内存不一致.

避免全量复制

选择小主节点(分片)、低峰期间操作.

如果节点运行 id 不匹配(如主节点重启、运行 id 发送变化),此时要执行全量复制,应该配合哨兵和集群解决.

主从复制挤压缓冲区不足产生的问题(网络中断,部分复制无法满足),可增大复制缓冲区( rel_backlog_size 参数).

复制风暴

哨兵机制

拓扑图

36d0df264bf950d0f544aa3c06959798.png

节点下线

客观下线

所有 Sentinel 节点对 Redis 节点失败要达成共识,即超过 quorum 个统一.

主观下线

即 Sentinel 节点对 Redis 节点失败的偏见,超出超时时间认为 Master 已经宕机.

leader选举

选举出一个 Sentinel 作为 Leader:集群中至少有三个 Sentinel 节点,但只有其中一个节点可完成故障转移.通过以下命令可以进行失败判定或领导者选举.

选举流程

每个主观下线的 Sentinel 节点向其他 Sentinel 节点发送命令,要求设置它为领导者.

收到命令的 Sentinel 节点如果没有同意通过其他 Sentinel 节点发送的命令,则同意该请求,否则拒绝.

如果该 Sentinel 节点发现自己的票数已经超过 Sentinel 集合半数且超过 quorum,则它成为领导者.

如果此过程有多个 Sentinel 节点成为领导者,则等待一段时间再重新进行选举.

故障转移

转移流程

Sentinel 选出一个合适的 Slave 作为新的 Master(slaveof no one 命令).

向其余 Slave 发出通知,让它们成为新 Master 的 Slave( parallel-syncs 参数).

等待旧 Master 复活,并使之称为新 Master 的 Slave.

向客户端通知 Master 变化.

从 Slave 中选择新 Master 节点的规则(slave 升级成 master 之后)

选择 slave-priority 最高的节点.

选择复制偏移量最大的节点(同步数据最多).

选择 runId 最小的节点.

读写分离

定时任务

每 1s 每个 Sentinel 对其他 Sentinel 和 Redis 执行 ping,进行心跳检测.

每 2s 每个 Sentinel 通过 Master 的 Channel 交换信息(pub - sub).

每 10s 每个 Sentinel 对 Master 和 Slave 执行 info,目的是发现 Slave 节点、确定主从关系.

分布式集群(Cluster)

拓扑图

a4adcd8be7a6c04b50a1331316915b38.png

通讯

集中式

将集群元数据(节点信息、故障等等)几种存储在某个节点上.

优势

元数据的更新读取具有很强的时效性,元数据修改立即更新

劣势

数据集中存储

Gossip

5bfd6af9ac614c2c6a68f45add91a994.png

寻址分片

hash取模

hash(key)%机器数量

问题

机器宕机,造成数据丢失,数据读取失败

伸缩性

一致性hash

28c5a091d8b2c2d2af6038a8e8c0838f.png

问题

一致性哈希算法在节点太少时,容易因为节点分布不均匀而造成缓存热点的问题。

解决方案

可以通过引入虚拟节点机制解决:即对每一个节点计算多个 hash,每个计算结果位置都放置一个虚拟节点。这样就实现了数据的均匀分布,负载均衡。

hash槽

CRC16(key)%16384

0bbfd623bab6520a44e34e0d07e94ada.png

使用场景

热点数据

会话维持 session

分布式锁 SETNX

表缓存

消息队列 list

计数器 string

缓存设计

更新策略

LRU、LFU、FIFO 算法自动清除:一致性最差,维护成本低.

超时自动清除(key expire):一致性较差,维护成本低.

主动更新:代码层面控制生命周期,一致性最好,维护成本高.

更新一致性

读请求:先读缓存,缓存没有的话,就读数据库,然后取出数据后放入缓存,同时返回响应.

写请求:先删除缓存,然后再更新数据库(避免大量地写、却又不经常读的数据导致缓存频繁更新).

缓存粒度

通用性:全量属性更好.

占用空间:部分属性更好.

代码维护成本.

缓存穿透

当大量的请求无命中缓存、直接请求到后端数据库(业务代码的 bug、或恶意攻击),同时后端数据库也没有查询到相应的记录、无法添加缓存.

这种状态会一直维持,流量一直打到存储层上,无法利用缓存、还会给存储层带来巨大压力.

解决方案

请求无法命中缓存、同时数据库记录为空时在缓存添加该 key 的空对象(设置过期时间),缺点是可能会在缓存中添加大量的空值键(比如遭到恶意攻击或爬虫),而且缓存层和存储层数据短期内不一致;

使用布隆过滤器在缓存层前拦截非法请求、自动为空值添加黑名单(同时可能要为误判的记录添加白名单).但需要考虑布隆过滤器的维护(离线生成/ 实时生成).

缓存雪崩

缓存崩溃时请求会直接落到数据库上,很可能由于无法承受大量的并发请求而崩溃,此时如果只重启数据库,或因为缓存重启后没有数据,新的流量进来很快又会把数据库击倒

出现后应对

事前:Redis 高可用,主从 + 哨兵,Redis Cluster,避免全盘崩溃.

事中:本地 ehcache 缓存 + hystrix 限流 & 降级,避免数据库承受太多压力.

事后:Redis 持久化,一旦重启,自动从磁盘上加载数据,快速恢复缓存数据.

请求过程

用户请求先访问本地缓存,无命中后再访问 Redis,如果本地缓存和 Redis 都没有再查数据库,并把数据添加到本地缓存和 Redis;

由于设置了限流,一段时间范围内超出的请求走降级处理(返回默认值,或给出友情提示).

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值