Redis Cluster集群主从切换踩坑记

因为项目的原因采用了Redis Cluster,3主3从,每台主机1主1从,集群信息如下:

10.135.255.72:20011> cluster nodes

7b662b36489a6240aa21d1cf7b04b84019254b63 10.135.255.74:20012 slave 85c78164a448fb9965e22447429a56cab226c68f 0 1537239581900 43 connected

61c3e1a640e71f4801d850c901dd33f0b4f6876d 10.135.255.73:20012 slave 8e3491125e105333958dd752ee0d0b0a41ed2d90 0 1537239582300 41 connected

85c78164a448fb9965e22447429a56cab226c68f 10.135.255.73:20011 master - 0 1537239581999 43 connected 5461-10922

8e3491125e105333958dd752ee0d0b0a41ed2d90 10.135.255.72:20011 myself,master - 0 0 41 connected 0-5460

92eadfb6acbd0db74a8b8860286a7f63abce140e 10.135.255.74:20011 master - 0 1537239581799 44 connected 10923-16383

7084c1d7950b83abc1e4419500e1c24a9fa108e7 10.135.255.72:20012 slave 92eadfb6acbd0db74a8b8860286a7f63abce140e 0 1537239581499 44 connected


Redis Cluster经过运行一段时间后,会经常发生主从关系的自动切换,比如:10.135.255.74:20012变成master,10.135.255.73:20011变成slave,这样就会导致10.135.255.74:20011和10.135.255.74:20012变成双master,这样假如10.135.255.74这台主机发生宕机,就会导致2个master不可用,导致cluster down(ps:redis cluster中一半以上的master故障会导致 cluster down)。此问题困扰项目组很久,一直未找到根本原因。

后来经过多次查阅资料,应该是redis.conf里的集群节点的超时时限参数cluster-node-timeout配置的是2000(2秒),这里简单讲解下该参数的作用:

一、节点失效检测

1.集群中当一个节点向另一个节点发送PING命令,但是目标节点未在给定的时限内返回PING命令的回复时,那么发送命令的节点会将目标节点标记为PFAIL(possible failuer,可能已失效);
等待节点回复的时限称为节点超时时限(node timeout),是一个节点选项(node-wise setting);

二、集群状态检测

每当集群发生配置变化时(可能是哈希槽更新,也可能是某个节点进入失效状态),集群中的每个节点都会对它所知道的节点进行扫描(scan);

一旦配置完毕,集群就会进入两种状态中的一种:

FAIL:集群不能正常工作,当集群中有某个节点进入失效状态时,集群不能处理任何命令请求,对于每个命令请求,集群节点都返回错误回复;

OK:集群可以正常工作,负责处理全部16384个槽节点中,没有一个被标记为FAIL状态;

三、从节点选举

一旦某个主节点进入了FAIL状态,如果这个主节点有一个或者多个从节点存在,那么其中一个从节点会被升级为主节点,而其它从节点会开始对这个新主节点进行复制;

在实际生产使用过程中,由于网络顺时延迟或者Cluster某些节点正在进行持久化,AOF重写、Master-slave同步数据这些耗时的操作,可能就会产生节点检测超时(>2000ms)从而失效,为了避免节点检测过于灵敏,经过多次调整实践,在该项目的实际生产环境中,将cluster-node-timeout调整为12000ms后,比较稳定,既不轻易发生主从自动切换,也在真正master节点主机宕机后,slave能迅速选举为主,保证redis cluster可用。

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Redis Cluster中,主从切换可能会导致数据丢失。当集群发生故障或分区时,Sentinel集群会重新选举一个新的Master节点来替代故障的Master节点。然而,在切换过程中可能会发生数据丢失的情况。 首先,在某种情况下,比如网络原因导致Master与Slave节点之间失去联系,Sentinel集群可能会错误地认为Master节点故障并进行切换。这时,旧的Master节点可能并没有真正发生故障,而是由于网络分区导致无法与其他节点通信。如果不及时发现问题并进行处理,旧的Master节点可能会继续接收客户端的写入请求,而新的Master节点并不包含这些数据。这样就会导致旧的Master节点中堆积大量数据,当问题被发现后,旧的Master节点需要降级为Slave来同步新的Master节点的数据,这样之前堆积的数据就会被刷新掉,造成数据丢失。 其次,集群产生脑裂也可能导致数据丢失。脑裂是指集群中的节点无法达成一致,导致部分节点认为Master节点故障,而另一部分节点认为原Master节点仍然存活。在这种情况下,两个Master节点可能同时接收写入请求,导致数据不一致。 为了尽量减少数据丢失,可以采取一些措施。首先,可以使用持久化机制来定期将数据写入磁盘,以防止节点宕机后数据丢失。然而,即使开启持久化设置,当Master节点发生故障并被切换后,旧的Master节点在故障恢复后重启时,仍然需要同步新的Master节点的数据,此时旧的Master节点中的数据会被刷新掉,仍然会造成数据丢失。 因此,在Redis Cluster中,无法完全保证数据不丢失,只能尽量减少数据丢失的风险。对于高可用性的要求,可以采用更可靠的数据备份和灾难恢复措施,以确保数据的安全性。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值