Redis集群搭建

Redis集群搭建

搭建步骤

这里我们在同一台机器上搭建3主3从集群。基于单机部署,配置文件上添加和修改配置。

机器的ip地址:192.168.0.100,进行如下操作

cd /usr/local/soft
mkdir redis-cluster
cd redis-cluster
mkdir 7291 7292 7293 7294 7295 7296

复制redis配置文件到7291目录

cp /usr/local/soft/redis/redis.conf /usr/local/soft/redis-cluster/7291

修改7291的redis.conf配置文件,内容:

cd /usr/local/soft/redis-cluster/7291
vim redis.conf

redis.conf内容如下:

port 7291
daemonize yes
protected-mode no
dir /usr/local/soft/redis-cluster/7291/
cluster-enabled yes
cluster-config-file nodes-7291.conf
cluster-node-timeout 5000
appendonly yes
pidfile /var/run/redis_7291.pid

注意,外网集群要添加这个配置:

# 实际给各节点网卡分配的IP(公网IP)
cluster-announce-ip 47.xx.xx.xx
# 节点映射端口
cluster-announce-port ${PORT}
# 节点总线端口
cluster-announce-bus-port 1${PORT}

把7291下的redis.conf复制到其他5个目录。

cd /usr/local/soft/redis-cluster/7291
cp redis.conf ../7292
cp redis.conf ../7293
cp redis.conf ../7294
cp redis.conf ../7295
cp redis.conf ../7296

批量替换内容:

cd /usr/local/soft/redis-6.0.9/redis-cluster
sed -i 's/7291/7292/g' 7292/redis.conf
sed -i 's/7291/7293/g' 7293/redis.conf
sed -i 's/7291/7294/g' 7294/redis.conf
sed -i 's/7291/7295/g' 7295/redis.conf
sed -i 's/7291/7296/g' 7296/redis.conf

启动6个Redis节点

cd /usr/local/soft/redis/
./src/redis-server ../redis-cluster/7291/redis.conf
./src/redis-server ../redis-cluster/7292/redis.conf
./src/redis-server ../redis-cluster/7293/redis.conf
./src/redis-server ../redis-cluster/7294/redis.conf
./src/redis-server ../redis-cluster/7295/redis.conf
./src/redis-server ../redis-cluster/7296/redis.conf

查看是否启动6个进程

ps -ef|grep redis

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NIiaAhpn-1624874836467)(F:\private-workspace\typora\personal-data\02_private\003_redis\image\17964f81af79488fb47bb7763248557e.png)]

创建集群

注意用绝对IP,不要用127.0.0.1

cd /usr/local/soft/redis/src/
redis-cli --cluster create 127.0.0.1:7291 127.0.0.1:7292 127.0.0.1:7293 127.0.0.1:7294 127.0.0.1:7295 127.0.0.1:7296 --cluster-replicas 1

Redis会给出一个预计的方案,对6个节点分配3主3从,如果认为没有问题,输入yes确认

>>> Performing hash slots allocation on 6 nodes...
Master[0] -> Slots 0 - 5460
Master[1] -> Slots 5461 - 10922
Master[2] -> Slots 10923 - 16383
Adding replica 127.0.0.1:7295 to 127.0.0.1:7291
Adding replica 127.0.0.1:7296 to 127.0.0.1:7292
Adding replica 127.0.0.1:7294 to 127.0.0.1:7293
>>> Trying to optimize slaves allocation for anti-affinity
[WARNING] Some slaves are in the same host as their master
M: 2058bd8fc0def0abe746816221c5b87f616e78ae 127.0.0.1:7291
   slots:[0-5460] (5461 slots) master
M: 4e41266f2fb7944420d66235475318f5f9526cd8 127.0.0.1:7292
   slots:[5461-10922] (5462 slots) master
M: 9ff8ac86b5faf3c0eca149f090800efea3b142e0 127.0.0.1:7293
   slots:[10923-16383] (5461 slots) master
S: 8383088d3ce75732fc9acb31ca4bce68833028f7 127.0.0.1:7294
   replicates 9ff8ac86b5faf3c0eca149f090800efea3b142e0
S: d185adbfa62133e30cee291b028eff451502ecca 127.0.0.1:7295
   replicates 2058bd8fc0def0abe746816221c5b87f616e78ae
S: 634709cf14809976ea40b65615f816e31d424748 127.0.0.1:7296
   replicates 4e41266f2fb7944420d66235475318f5f9526cd8
Can I set the above configuration? (type 'yes' to accept): 

注意看slot的分布:

7291  [0-5460] (5461个槽) 
7292  [5461-10922] (5462个槽) 
7293  [10923-16383] (5461个槽)

输入yes确认,集群创建完成

>>> Performing Cluster Check (using node 127.0.0.1:7291)
M: 2058bd8fc0def0abe746816221c5b87f616e78ae 127.0.0.1:7291
   slots:[0-5460] (5461 slots) master
   1 additional replica(s)
S: 8383088d3ce75732fc9acb31ca4bce68833028f7 127.0.0.1:7294
   slots: (0 slots) slave
   replicates 9ff8ac86b5faf3c0eca149f090800efea3b142e0
S: d185adbfa62133e30cee291b028eff451502ecca 127.0.0.1:7295
   slots: (0 slots) slave
   replicates 2058bd8fc0def0abe746816221c5b87f616e78ae
M: 9ff8ac86b5faf3c0eca149f090800efea3b142e0 127.0.0.1:7293
   slots:[10923-16383] (5461 slots) master
   1 additional replica(s)
M: 4e41266f2fb7944420d66235475318f5f9526cd8 127.0.0.1:7292
   slots:[5461-10922] (5462 slots) master
   1 additional replica(s)
S: 634709cf14809976ea40b65615f816e31d424748 127.0.0.1:7296
   slots: (0 slots) slave
   replicates 4e41266f2fb7944420d66235475318f5f9526cd8
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.

重置集群的方式是在每个节点上个执行cluster reset,然后重新创建集群

批量写入值

cd /usr/local/soft/redis-6.0.9/redis-cluster/
vim setkey.sh

脚本内容

#!/bin/bash
for ((i=0;i<20000;i++))
do
echo -en "helloworld" | redis-cli -h 127.0.0.1 -p 7291 -c -x set name$i >>redis.log
done
chmod +x setkey.sh
./setkey.sh

连接到客户端

redis-cli -p 7291
redis-cli -p 7292
redis-cli -p 7293

每个节点分布的数据

127.0.0.1:7291> dbsize
(integer) 6652
127.0.0.1:7292> dbsize
(integer) 6683
127.0.0.1:7293> dbsize
(integer) 6665

新增节点(新增7297节点,新节点add-node加入集群后,是没有slots的):

#  add-node       new_host:new_port existing_host:existing_port
#                 --cluster-slave
#                 --cluster-master-id <arg>
redis-cli --cluster add-node 127.0.0.1:7297 127.0.0.1:7291

重新分片:

# redis-cli --cluster reshard 目标节点(IP端口)
redis-cli --cluster reshard 127.0.0.1:7297

输入需要分配的哈希槽的数量(比如500),和哈希槽的来源节点(可以输入all或者id)。

cluster管理命令

redis-cli --cluster help
Cluster Manager Commands:
  create         host1:port1 ... hostN:portN
                 --cluster-replicas <arg>
  check          host:port
                 --cluster-search-multiple-owners
  info           host:port
  fix            host:port
                 --cluster-search-multiple-owners
  reshard        host:port
                 --cluster-from <arg>
                 --cluster-to <arg>
                 --cluster-slots <arg>
                 --cluster-yes
                 --cluster-timeout <arg>
                 --cluster-pipeline <arg>
                 --cluster-replace
  rebalance      host:port
                 --cluster-weight <node1=w1...nodeN=wN>
                 --cluster-use-empty-masters
                 --cluster-timeout <arg>
                 --cluster-simulate
                 --cluster-pipeline <arg>
                 --cluster-threshold <arg>
                 --cluster-replace
  add-node       new_host:new_port existing_host:existing_port
                 --cluster-slave
                 --cluster-master-id <arg>
  del-node       host:port node_id
  call           host:port command arg arg .. arg
  set-timeout    host:port milliseconds
  import         host:port
                 --cluster-from <arg>
                 --cluster-copy
                 --cluster-replace
  help           

For check, fix, reshard, del-node, set-timeout you can specify the host and port of any working node in the cluster.

集群命令

cluster info :打印集群的信息

cluster nodes :列出集群当前已知的所有节点(node),以及这些节点的相关信息。

cluster meet :将 ip 和 port 所指定的节点添加到集群当中,让它成为集群的一份子。

cluster forget <node_id> :从集群中移除 node_id 指定的节点(保证空槽道)。

cluster replicate <node_id> :将当前节点设置为 node_id 指定的节点的从节点。

cluster saveconfig :将节点的配置文件保存到硬盘里面。

槽slot命令

cluster addslots [slot …] :将一个或多个槽(slot)指派(assign)给当前节点。

cluster delslots [slot …]:移除一个或多个槽对当前节点的指派。

cluster flushslots :移除指派给当前节点的所有槽,让当前节点变成一个没有指派任何槽的节点。

cluster setslot node <node_id> :将槽 slot 指派给 node_id 指定的节点,如果槽已经指派给另一个节点,那么先让另一个节点删除该槽>,然后再进行指派。

cluster setslot migrating <node_id> :将本节点的槽 slot 迁移到 node_id 指定的节点中。

cluster setslot importing <node_id> :从 node_id 指定的节点中导入槽 slot 到本节点。

cluster setslot stable :取消对槽 slot 的导入(import)或者迁移(migrate)。

键命令

cluster keyslot :计算键 key 应该被放置在哪个槽上。

cluster countkeysinslot :返回槽 slot 目前包含的键值对数量。

cluster getkeysinslot:返回 count 个 slot 槽中的键

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值