Rocky9实现redis分布式集群

实验目的

掌握redis cluster工作原理,特点,实现redis分布式集群

实验主要内容

实现redis分布式集群部署

实验环境与准备

3台拍完快照配置好的linux主机,台均为rocky9主机且安装redis,三台均创建一个实例作为从节点

四、实验分析与设计思路

建议基于画图、思维导图等模式,结合文字描述,写的清晰、明了、得体

Redis cluster的

①:所有Redis节点使用(PING机制)互联

②:集群中某个节点的是否失效,是由整个集群中超过半数的节点监测都失效,才能算真正的失效

③:客户端不需要proxy即可直接连接redis,应用程序中需要配置有全部的redis服务器IP

④:redis cluster把所有的redis node 平均映射到 0-16383个槽位slot上,读与需要到指定的redis node上进行操作,因此有多少redis node相当于redis 并发扩展了多少倍,每个redis node 承担16384/N个槽位

⑤:Redis cluster预先分配16384slot,槽位,当需要在redis集群中写入key-value的时候,会使用RC16key md 16384之后的值,决定将Kev写入值哪个槽位从而决定写入哪一个Redis节点上,从而有效解决单机瓶颈。

五、详细实验过程

1、实现redis分布式集群部署

①:首先将已有redis服务停服,创建多实例(两个即可)

运行脚本安装redis,安装完成之后,运行创建实例的脚本(需要更改一下脚本内容)

[root@node-1 ~]# bash new_install_redis.sh

[root@node-2 ~]# vim install_instance.sh 查看脚本内容,用来创建实例6380

100、110和120都运行脚本,查看端口,端口6379和6380都开启了,实例创建好了

[root@node-2 ~]# bash install_instance.sh

[root@node-2 ~]# ss -tnl

同样10.120也创建实例,操作是一样的操作,可以看到端口已经打开,实例创建成功

运行下面命令修改配置文件

sed -i.bak -e '/masterauth/a masterauth 666666' -e '/# cluster-enabled yes/a cluster-enabled yes' -e '/# cluster-config-file nodes-6379.conf/a cluster-config-file nodes_6379.conf' -e '/cluster-require-full-coverage yes/c cluster-require-full-coverage no' /usr/local/redis/etc/redis.conf

sed -i.bak -e '/masterauth/a masterauth 666666' -e '/# cluster-enabled yes/a cluster-enabled yes' -e '/# cluster-config-file nodes-6380.conf/a cluster-config-file nodes_6380.conf' -e '/cluster-require-full-coverage yes/c cluster-require-full-coverage no' /usr/local/redis/etc/redis_6380.conf

[root@node-1 ~]# cd /usr/local/redis/etc/

修改完配置文件后三台主机均重启服务

systemctl restart redis redis_6380

进入redis服务查看集群是否开启 可以看到已经开启了集群

redis-cli -a 666666

INFO cluster

定义分布式集群 一主二主三主、一从二从三从,有严格的顺序

[root@node-1 etc]# redis-cli -a 666666 --cluster create 192.168.10.100:6379 192.168.10.110:6379 192.168.10.120:6379 192.168.10.110:6380 192.168.10.120:6380 192.168.10.100:6380 --cluster-replicas 1

查看集群的工作情况,是否OK

[root@node-1 etc]# redis-cli -a 666666 cluster info

[root@node-2 ~]# ls /usr/local/redis/data/

[root@node-2 ~]# cat /usr/local/redis/data/nodes_6379.conf

redis-cli -a 666666 -p 6380 info replication 查看主从关系

查看实例槽位以及对应的从节点

[root@node-2 ~]# redis-cli -a 666666 --cluster info 192.168.10.100:6379

[root@node-2 ~]# yum -y install pip 安装pip

[root@node-2 ~]# pip3 install redis-py-cluster 安装redis-py-cluster 模块

[root@node-2 ~]# python redis_cluster_test.py 运行脚本将数据导入到redis中

查看实例槽位以及对应的从节点 可以看到在每个redis中都生成了数据,而且几乎是平均的

使用DBSIZE分别查看各自的KEY数量

查看下指定的槽位号内是否有KEY,有多少KEY ,0为空,1为有key

模拟故障

[root@node-2 ~]# redis-cli -a 666666 -p 6380 将10.110的6379主节点进行下线

110的6379主节点对应的从节点为120的6380,登录120的6380查看状态

[root@node-3 ~]# redis-cli -a 666666 -p 6380

127.0.0.1:6380> INFO replication

可以看到120的6380从节点已经变成了主节点

重启110的6379实例 可以看到6379已经变成了slave从节点,主节点为120的6380

查询数据

在120的6380实例上插入数据

在从节点110的6379上进行查看信息,查看失败,因为从节点为了节省空间,所以没有同步到从节点中

将120的6380主节点下线

可以看到110的6379又变回到了主节点

在110的6379主节点中查看数据,因为120的6380停服之后就会将数据同步给110的6379,所以110的6379就会有数据

实验结果及分析

所有Redis节点使用(PING机制)互联

集群中某个节点的是否失效,是由整个集群中超过半数的节点监测都失效,才能算真正的失效

客户端不需要proxy即可直接连接redis,应用程序中需要配置有全部的redis服务器IP

redis cluster把所有的redis node 平均映射到 0-16383个槽位slot上,读与需要到指定的redis node上进行操作,因此有多少redis node相当于redis 并发扩展了多少倍,每个redis node 承担16384/N个槽位

Redis cluster预先分配16384slot,槽位,当需要在redis集群中写入key-value的时候,会使用RC16key md 16384之后的值,决定将Kev写入值哪个槽位从而决定写入哪一个Redis节点上,从而有效解决单机瓶颈。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我变秃了也没变强

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值