redis集群添加节点(集群异常修复)

做这个的原因是我们生产环境中redis集群某一节点未加入到集群中
故障原因不知道 但是让我来修复 我这边模拟到的故障就是清除掉某一节点的集群配置文件中的内容 跟生产上的故障情况一摸一样
下面是我自己环境的redis集群信息 此时是正常的
在这里插入图片描述
在这里插入图片描述
接下来我停掉一个节点 就拿6388这个节点 然后清掉他的集群配置文件中的内容 操作就不截图了 用不到 然后重启 此时查看6388节点是这么显示的
在这里插入图片描述
其他节点是这么显示的 生产中集群节点信息跟这个一样的异常
2ac09f33dac8bd482fe124fa4d125421bcab48d6 :0@0 slave,fail,noaddr 46a1d82e61db23fceba557838364225b26626d1a 1639036775836 1639036772809 2 disconnected
在这里插入图片描述
接下来开始修复步骤
进入到故障节点
执行flushdb 以及cluster reset redis(节点要加入集群的前提是节点以及数据要为空)
必须先清除key值 否则会报错
在这里插入图片描述
在这里插入图片描述
将redis节点加入集群
第一个ip:port 为需要添加的节点ip和端口 第二个ip:port为当前集群中的节点和端口
执行成功显示如下图
在这里插入图片描述
此时进入节点查看 正常
在这里插入图片描述
可以看到加入进来是以master的身份 此时将他降为slave 指定一个master 找到一个没有slave的master 指定 后面的id是master的id 并不是通过ip:port
要指定哪个redis为slave 就进去哪个redis执行命令
在这里插入图片描述
此时再查看集群节点信息 已经变成slave 3maste 3slave
在这里插入图片描述
最后还有一个小问题就是 到其他节点查看节点信息 依然会有之前残留的信息
在这里插入图片描述
我这边知道的方法就是需要将redis停掉
到每个redis的集群配置文件 node.conf中将那一行删除 再启动redis 恢复正常
还可以通过forget命令删除 方法是
到显示异常的redis节点中 redis-cli连接
cluster forget id
多余的fail节点信息就会清除

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值