centos stream 9 redis集群搭建

redis 集群


一、服务器准备

个人准备了三台服务器(虚拟机)

虚拟机名称IP地址Redis版本
虚拟机1192.168.243.134redis7.2(主)
虚拟机2192.168.243.133redis7.2(主)
虚拟机3192.168.243.135redis7.2(主)
虚拟机4192.168.243.138redis7.2(从)
虚拟机5192.168.243.136redis7.2(从)
虚拟机6192.168.243.137redis7.2(从)

一、redis 集群的配置(配置文件 redis.conf)

1.cluster配置

cluster-enabled yes  #开启集群
cluster-config-file nodes-6379.conf #集群配置文件,该文件列出来集群中其他节点,它们的状态,持久变量等等
cluster-node-timeout 15000(ms) #集群不可用的最长时间,如果主节点超过指定的时间不可达,从节点将进行故障转移
cluster-port 0  #集群节点端口是集群总线将侦听入站连接的端口。当设置为默认值0时,它将绑定到客户端命令端口 + 10000(客户端端口默认 6379,所以绑定为 16379 作为集群总线端口)
cluster-replica-validity-factor 10 #设置为0,则不管master和slave之间链路保持断开连接的时间长短,slave将始终尝试对master进行故障切换。如果该值为正值,则计算timeout值乘以此选项提供的系数作为最大断开时间,如果节点是从节点,则在主链路断开连接的时间超过指定的超时值时,它不会尝试启动故障转移                 
cluster-migration-barrier 1 #主节点需要的最小从节点数,只有达到这个数,主节点失败时,从节点才会迁移
cluster-allow-replica-migration yes # 默认配置为 yes,表示允许自动迁移
cluster-require-full-coverage yes #设置为yes,如果key的空间某个百分比的slots数量,则集群将停止接受写入。如果该选项设置为no,即使只能处理关于key子集的请求,集群仍将提供查询
cluster-replica-no-failover  no #默认配置为 no,当配置成 yes,在master 宕机时,slave不会做故障转移升为master
cluster-allow-reads-when-down no #默认是 no,表示当集群被标记为失效时,节点将停止所有客户端请求。设置成 yes,则允许集群失效的情况下依然可从节点中读取数据,保证了高可用
cluster-allow-pubsubshard-when-down yes #配置成 yes,表示当集群被标记为失效时,pub/sub 依然可以正常运行
cluster-link-sendbuf-limit 0 (0 表示无穷大)#设置每个集群总线连接的发送字节缓冲区的内存使用限制,超过限制缓冲区将被清空(主要为了防止发送缓冲区发送给慢速连接时无限延长时间的问题)。默认禁用,建议最小设置1gb,这样默认情况下集群连接缓冲区可以容纳至少一pubsub消息(client-query-buffer-limit 默认是1gb)
cluster-announce-hostname "" #配置集群宣布的主机名,设置为空字符串将移除主机名。如果cluster-preferred-endpoint-type设置为hostname,那cluster-announce-hostname就是具体的值
cluster-announce-human-nodename "" #配置集群要使用的可选节点名。此名称在节点之间广播,因此在报告跨节点事件(如节点故障)时,除了节点ID外,还会使用此名称
cluster-preferred-endpoint-type ip #设置告诉客户端使用何种方式连接集群(IP地址、用户自定义主机名、声明没有端点),可以设置为“ip”、“hostname”、“unknown-endpoint”,用于控制MOVED/ASKING请求的返回和CLUSTER SLOTS的第一个字段(如果指定了hostname但没有公布主机名,则会返回“?”)

2.CLUSTER DOCKER/NAT support

在某些部署中,Redis Cluster节点的地址发现失败,原因是地址被NAT转发或端口被转发(典型的情况是Docker和其他容器)
为了让Redis集群在这样的环境中工作,每个节点需要知道其公共地址的配置。redis提供了以下配置项来支持在这种环节中运行:
cluster-announce-ip 10.1.1.5 #节点ip地址
cluster-announce-port 0 #集群公告端口
cluster-announce-tls-port 6379 #集群公告tls端口
cluster-announce-bus-port 6380 #群集消息总线端口

3.启动6台redis服务

[root@localhost redis]# clear
[root@localhost redis]# systemctl restart redis.service
Job for redis.service failed because the control process exited with error code.
See "systemctl status redis.service" and "journalctl -xeu redis.service" for details.
[root@localhost redis]# systemctl status redis.service
× redis.service - Redis persistent key-value database
     Loaded: loaded (/usr/lib/systemd/system/redis.service; disabled; preset: disabled)
    Drop-In: /etc/systemd/system/redis.service.d
             └─limit.conf
     Active: failed (Result: exit-code) since Mon 2024-02-19 16:27:15 CST; 9s ago
   Duration: 9min 475ms
    Process: 65176 ExecStart=/usr/bin/redis-server /etc/redis/redis.conf --daemonize no --supervised systemd (code=exited, status=1/FAILURE)
   Main PID: 65176 (code=exited, status=1/FAILURE)
        CPU: 11ms

219 16:27:15 localhost.localdomain systemd[1]: Starting Redis persistent key-value database...
219 16:27:15 localhost.localdomain redis-server[65176]: *** FATAL CONFIG FILE ERROR (Redis 7.2.4) ***
219 16:27:15 localhost.localdomain redis-server[65176]: replicaof directive not allowed in cluster mode
219 16:27:15 localhost.localdomain systemd[1]: redis.service: Main process exited, code=exited, status=1/FAILURE
219 16:27:15 localhost.localdomain systemd[1]: redis.service: Failed with result 'exit-code'.
219 16:27:15 localhost.localdomain systemd[1]: Failed to start Redis persistent key-value database.


# 在redis.conf 集群配置时不能配置replicaof 主从参数

二.创建redis集群

[root@localhost etc]# redis-cli --cluster create  --cluster-replicas 1 192.168.243.134:6379 192.168.243.133:6379 192.168.243.135:6379 192.168.243.138:6379 192.168.243.136:6379 192.168.243.137:6379 #-replicas 指定集群中每个主节点有多少个从节点,前面三个为主节点,后面三个为从节点
>>> Performing hash slots allocation on 6 nodes...
Master[0] -> Slots 0 - 5460
Master[1] -> Slots 5461 - 10922
Master[2] -> Slots 10923 - 16383
Adding replica 192.168.243.136:6379 to 192.168.243.134:6379
Adding replica 192.168.243.137:6379 to 192.168.243.133:6379
Adding replica 192.168.243.138:6379 to 192.168.243.135:6379
M: 6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379
   slots:[0-5460] (5461 slots) master
M: 7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379
   slots:[5461-10922] (5462 slots) master
M: d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379
   slots:[10923-16383] (5461 slots) master
S: 93b5f76a75953609ab00b024eb4af5de234c8007 192.168.243.138:6379
   replicates d8837df2f4b0e52daa8d3eeae4bc3aef35e166be
S: c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379
   replicates 6a4391003de13a4918243cef7d0c1d241435157f
S: 0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379
   replicates 7089c4c00ec2b527c9b637d0457cbc01341e8847
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join
.
>>> Performing Cluster Check (using node 192.168.243.134:6379)
M: 6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379
   slots:[0-5460] (5461 slots) master
   1 additional replica(s)
S: 93b5f76a75953609ab00b024eb4af5de234c8007 192.168.243.138:6379
   slots: (0 slots) slave
   replicates d8837df2f4b0e52daa8d3eeae4bc3aef35e166be
S: c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379
   slots: (0 slots) slave
   replicates 6a4391003de13a4918243cef7d0c1d241435157f
S: 0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379
   slots: (0 slots) slave
   replicates 7089c4c00ec2b527c9b637d0457cbc01341e8847
M: d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379
   slots:[10923-16383] (5461 slots) master
   1 additional replica(s)
M: 7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379
   slots:[5461-10922] (5462 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
[root@localhost etc]# 
#至此集群搭建完成

三.集群相关命令

[root@localhost etc]# redis-cli -c   #集群连接,可以加-a 密码  -p 端口
#查看集群信息
127.0.0.1:6379> cluster info   
cluster_state:ok
cluster_slots_assigned:16384
cluster_slots_ok:16384
cluster_slots_pfail:0
cluster_slots_fail:0
cluster_known_nodes:6
cluster_size:3
cluster_current_epoch:6
cluster_my_epoch:1
cluster_stats_messages_ping_sent:229
cluster_stats_messages_pong_sent:217
cluster_stats_messages_sent:446
cluster_stats_messages_ping_received:212
cluster_stats_messages_pong_received:229
cluster_stats_messages_meet_received:5
cluster_stats_messages_received:446
total_cluster_links_buffer_limit_exceeded:0
#查看集群中的节点
127.0.0.1:6379> cluster nodes
93b5f76a75953609ab00b024eb4af5de234c8007 192.168.243.138:6379@16379 slave d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 0 1708333569000 3 connected
c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379@16379 slave 6a4391003de13a4918243cef7d0c1d241435157f 0 1708333568560 1 connected
0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379@16379 slave 7089c4c00ec2b527c9b637d0457cbc01341e8847 0 1708333568000 2 connected
d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379@16379 master - 0 1708333569583 3 connected 10923-16383
6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379@16379 myself,master - 0 1708333569000 1 connected 0-5460
7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379@16379 master - 0 1708333566000 2 connected 5461-10922

#计算key在集群中所在的槽位
127.0.0.1:6379> cluster keyslot test
(integer) 6918
#计算某个槽包含多少个key
127.0.0.1:6379> cluster countkeysinslot 200
(integer) 0
#返回一个slot中count个key的集合
127.0.0.1:6379> cluster getkeysinslot 200 1
(empty array)

#从集群中移出指定的节点
127.0.0.1:6379> cluster forget 93b5f76a75953609ab00b024eb4af5de234c8007
OK
127.0.0.1:6379> cluster nodes
c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379@16379 slave 6a4391003de13a4918243cef7d0c1d241435157f 0 1708334272000 1 connected
0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379@16379 slave 7089c4c00ec2b527c9b637d0457cbc01341e8847 0 1708334273749 2 connected
d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379@16379 master - 0 1708334274000 3 connected 10923-16383
6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379@16379 myself,master - 0 1708334273000 1 connected 0-5460
7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379@16379 master - 0 1708334274783 2 connected 5461-10922
127.0.0.1:6379> 

#加入为主节点
[root@localhost redis]# redis-cli --cluster add-node 192.168.243.138:6379(要加入的节点) 192.168.243.134:6379(集群节点) 
>>> Adding node 192.168.243.138:6379 to cluster 192.168.243.134:6379
>>> Performing Cluster Check (using node 192.168.243.134:6379)
M: 6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379
   slots:[0-5460] (5461 slots) master
   1 additional replica(s)
S: c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379
   slots: (0 slots) slave
   replicates 6a4391003de13a4918243cef7d0c1d241435157f
S: 0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379
   slots: (0 slots) slave
   replicates 7089c4c00ec2b527c9b637d0457cbc01341e8847
M: d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379
   slots:[10923-16383] (5461 slots) master
M: 7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379
   slots:[5461-10922] (5462 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
[ERR] Node 192.168.243.138:6379 is not empty. Either the node already knows other nodes (check with CLUSTER NODES) or contains some key in database 0. #停止redis服务,删除redis中的dump.rdb、nodes.conf 文件,重启redis

[root@localhost ~]# redis-cli --cluster add-node 192.168.243.138:6379 192.168.243.134:6379
>>> Adding node 192.168.243.138:6379 to cluster 192.168.243.134:6379
>>> Performing Cluster Check (using node 192.168.243.134:6379)
M: 6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379
   slots:[0-5460] (5461 slots) master
   1 additional replica(s)
S: 0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379
   slots: (0 slots) slave
   replicates 7089c4c00ec2b527c9b637d0457cbc01341e8847
S: c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379
   slots: (0 slots) slave
   replicates 6a4391003de13a4918243cef7d0c1d241435157f
M: 7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379
   slots:[5461-10922] (5462 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[ERR] Not all 16384 slots are covered by nodes.(#forget  节点时候没有先删除节点的槽,可以使用redis-cli --cluster fix 127.0.0.1:6379 或者 进行修复)

[root@localhost redis]# redis-cli --cluster add-node 192.168.243.138:6379 192.168.243.134:6379 
>>> Adding node 192.168.243.138:6379 to cluster 192.168.243.134:6379
>>> Performing Cluster Check (using node 192.168.243.134:6379)
M: 6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379
   slots:[0-5460] (5461 slots) master
   1 additional replica(s)
S: c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379
   slots: (0 slots) slave
   replicates 6a4391003de13a4918243cef7d0c1d241435157f
S: 0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379
   slots: (0 slots) slave
   replicates 7089c4c00ec2b527c9b637d0457cbc01341e8847
M: d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379
   slots:[10923-16383] (5461 slots) master
M: 7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379
   slots:[5461-10922] (5462 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
>>> Getting functions from cluster
>>> Send FUNCTION LIST to 192.168.243.138:6379 to verify there is no functions in it
>>> Send FUNCTION RESTORE to 192.168.243.138:6379
>>> Send CLUSTER MEET to node 192.168.243.138:6379 to make it join the cluster.
[OK] New node added correctly.

127.0.0.1:6379> cluster nodes
c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379@16379 slave 6a4391003de13a4918243cef7d0c1d241435157f 0 1708336579000 1 connected
0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379@16379 slave 7089c4c00ec2b527c9b637d0457cbc01341e8847 0 1708336580000 2 connected
d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379@16379 master - 0 1708336579954 3 connected 10923-16383
6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379@16379 myself,master - 0 1708336579000 1 connected 0-5460
89666d76e8c36de8398f9793e5871b9ac250c8a2 192.168.243.138:6379@16379 master - 0 1708336580969 0 connected
7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379@16379 master - 0 1708336581988 2 connected 5461-10922
127.0.0.1:6379> 

#将当前节点设置为指定节点的从节点(cluster  replicate)
127.0.0.1:6379> cluster nodes
89666d76e8c36de8398f9793e5871b9ac250c8a2 192.168.243.138:6379@16379 myself,master - 0 1708336687000 0 connected
0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379@16379 slave 7089c4c00ec2b527c9b637d0457cbc01341e8847 0 1708336690316 2 connected
7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379@16379 master - 0 1708336691343 2 connected 5461-10922
d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379@16379 master - 0 1708336689000 3 connected 10923-16383
6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379@16379 master - 0 1708336688000 1 connected 0-5460
c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379@16379 slave 6a4391003de13a4918243cef7d0c1d241435157f 0 1708336689292 1 connected
127.0.0.1:6379> cluster  replicate   d8837df2f4b0e52daa8d3eeae4bc3aef35e166be
OK
127.0.0.1:6379> cluster nodes
89666d76e8c36de8398f9793e5871b9ac250c8a2 192.168.243.138:6379@16379 myself,slave d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 0 1708336775000 3 connected
0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379@16379 slave 7089c4c00ec2b527c9b637d0457cbc01341e8847 0 1708336778000 2 connected
7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379@16379 master - 0 1708336776773 2 connected 5461-10922
d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379@16379 master - 0 1708336777000 3 connected 10923-16383
6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379@16379 master - 0 1708336778803 1 connected 0-5460
c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379@16379 slave 6a4391003de13a4918243cef7d0c1d241435157f 0 1708336777000 1 connected
127.0.0.1:6379> 


#加入为从节点
[root@localhost redis]# redis-cli --cluster  add-node  --cluster-slave --cluster-master-id d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.138:6379 192.168.243.134:6379
>>> Adding node 192.168.243.138:6379 to cluster 192.168.243.134:6379
>>> Performing Cluster Check (using node 192.168.243.134:6379)
M: 6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379
   slots:[0-5460] (5461 slots) master
   1 additional replica(s)
S: c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379
   slots: (0 slots) slave
   replicates 6a4391003de13a4918243cef7d0c1d241435157f
S: 0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379
   slots: (0 slots) slave
   replicates 7089c4c00ec2b527c9b637d0457cbc01341e8847
M: d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379
   slots:[10923-16383] (5461 slots) master
M: 7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379
   slots:[5461-10922] (5462 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
>>> Send CLUSTER MEET to node 192.168.243.138:6379 to make it join the cluster.
Waiting for the cluster to join

>>> Configure node as replica of 192.168.243.135:6379.
[OK] New node added correctly.
[root@localhost redis]# 

127.0.0.1:6379> cluster nodes
7089c4c00ec2b527c9b637d0457cbc01341e8847 192.168.243.133:6379@16379 master - 0 1708337499565 2 connected 5461-10922
192d734451f2a4c24507917b6685345f59b8f1ea 192.168.243.138:6379@16379 myself,slave d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 0 1708337498000 3 connected
6a4391003de13a4918243cef7d0c1d241435157f 192.168.243.134:6379@16379 master - 0 1708337498522 1 connected 0-5460
d8837df2f4b0e52daa8d3eeae4bc3aef35e166be 192.168.243.135:6379@16379 master - 0 1708337498000 3 connected 10923-16383
c1011c5937de887405773b9d881dc369d81b4cd7 192.168.243.136:6379@16379 slave 6a4391003de13a4918243cef7d0c1d241435157f 0 1708337500601 1 connected
0d22ae00b010017ce694ab487016c92811082949 192.168.243.137:6379@16379 slave 7089c4c00ec2b527c9b637d0457cbc01341e8847 0 1708337499000 2 connected
127.0.0.1:6379> 

#节点槽迁移
[root@localhost ~]# redis-cli --cluster reshard 192.168.243.134:6379
5],[16378] (8103 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
How many slots do you want to move (from 1 to 16384)?   #输入要迁移的槽数
What is the receiving node ID?  #要迁移到的节点id
Please enter all the source node IDs.
  Type 'all' to use all the nodes as source nodes for the hash slots.
  Type 'done' once you entered all the source nodes IDs.
Source node #1: #需要从哪些节点迁移槽(填node_id或者填all,all代表节点从新洗牌)
Source node #2: #需要从哪些节点迁移槽(填node_id或者填all)
Source node #3: done 
Do you want to proceed with the proposed reshard plan (yes/no)?   yes #(填yes)
Moving slot 1193 from 192.168.243.134:6379 to 192.168.243.133:6379: 
Moving slot 1194 from 192.168.243.134:6379 to 192.168.243.133:6379: 
Moving slot 1195 from 192.168.243.134:6379 to 192.168.243.133:6379: 
Moving slot 1196 from 192.168.243.134:6379 to 192.168.243.133:6379: 
Moving slot 1197 from 192.168.243.134:6379 to 192.168.243.133:6379: 
Moving slot 1198 from 192.168.243.134:6379 to 192.168.243.133:6379: 
#节点槽迁移完成

#节点槽平衡
[root@localhost ~]# redis-cli --cluster rebalance 192.168.243.134:6379
>>> Performing Cluster Check (using node 192.168.243.134:6379)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
*** No rebalancing needed! All nodes are within the 2.00% threshold.#数据量差异在2%以内,集群节点数据相对均衡,无需在调整
#节点槽相差太多
[root@localhost ~]# redis-cli --cluster rebalance 192.168.243.134:6379
>>> Performing Cluster Check (using node 192.168.243.134:6379)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
>>> Rebalancing across 2 nodes. Total weight = 2.00
Moving 5111 slots from 192.168.243.133:6379 to 192.168.243.134:6379
#######################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################
#自动进行平衡

#删除节点(删除节点前槽必须清空)
[root@localhost ~]# redis-cli --cluster del-node 192.168.243.134:6379 节点node_id
>>> Removing node 0d22ae00b010017ce694ab487016c92811082949 from cluster 192.168.243.134:6379
>>> Sending CLUSTER FORGET messages to the cluster...
>>> Sending CLUSTER RESET SOFT to the deleted node.
  • 14
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值