Redis集群

一.Redis主从架构集群

1.搭建主从架构集群搭建

1.1集群的架构

集群架构
                

伪集群

由于我们只有一个虚拟机,所以我们需要在一个虚拟机上部署三个redis实例,但是需要保证端口不同

1.2准备3个redis

创建一个文件夹方便管理

mkdir master_slave

准备3个redis

将单机的redis复制3份

cp -r  redis-6.2.4 master_slave/7001
cp -r  redis-6.2.4 master_slave/7002
cp -r  redis-6.2.4 master_slave/7003

修改端口分别为端口分别为7001,7002,7003

  • 使用finalshell修改三个实例的port
  • 修改redis.conf文件

1.3配置主从架构的关系

方式1:修改slave的配置文件,指定主节点的地址(永久生效)
redis.conf中添加一行配置:

slaveof <masterip> <masterport>

方式2:使用redis-cli客户端连接到slave,执行slaveof或者replicaof命令(重启后失效)

slaveof masterip masterport

1.4启动三个redis实例

分别进入7001,7002,7003的src目录

./redis-server ../redis.conf

查看是否启动(查看网络进程端口占用)

netstat -nltp

1.5查看角色

利用任意节点的redis-cli连接7001实例

./redis-cli -h localhost -p 7001

利用利用任意节点的redis-cli连接7002实例

./redis-cli -h localhost -p 7002

利用利用任意节点的redis-cli连接7003实例

./redis-cli -h localhost -p 7003

查看角色

info replication



               

1.6测试

利用redis-cli连接7001,执行set num 123

利用redis-cli连接7002,执行get num,再执行set num 666

利用redis-cli连接7003,执行get num,再执行set num 888

发现7002和7003是不能进行写操作

2.主从数据同步的原理

主从第一次同步是全量同步,但如果slave重启后同步,则执行增量同步

2.1简述全量同步的流程

  1. slave节点请求增量同步
  2. master节点判断replid,发现不一致,拒绝增量同步
  3. master将完整内存数据生成RDB,发送RDB到slave
  4. slave清空本地数据,加载master的RDB
  5. master将RDB期间的命令记录在repl_baklog,并持续将log中的命令发送给slave
  6. slave执行接收到的命令,保持与master之间的同步

2.2master如何判断slave是不是第一次来同步数据

slave做数据同步,必须向master声明自己的replication id 和offset,master才可以判断到底需要同步哪些数据

注意

repl_baklog大小有上限,写满后会覆盖最早的数据。如果slave断开时间过久,导致尚未备份的数据被覆盖,则无法基于log做增量同步,只能再次全量同步。

2.3优化Redis主从就集群

  1. 在master中配置repl-diskless-sync yes启用无磁盘复制,避免全量同步时的磁盘IO。但会消耗网络资源,且网络必须良好
  2. Redis单节点上的内存占用不要太大,减少RDB导致的过多磁盘IO
  3. 适当提高repl_baklog的大小,发现slave宕机时尽快实现故障恢复,尽可能避免全量同步
  4. 限制一个master上的slave节点数量,如果实在是太多slave,则可以采用主-从-从链式结构,减少master压力

2.4简述全量同步和增量同步区别

  • 全量同步:master将完整内存数据生成RDB,发送RDB到slave。后续命令则记录在repl_baklog,逐个发送给slave。
  • 增量同步:slave提交自己的offset到master,master获取repl_baklog中从offset之后的命令给slave

2.5什么时候执行全量同步?

  • slave节点第一次连接master节点时
  • slave节点断开时间太久,repl_baklog中的offset已经被覆盖时

2.6什么时候执行增量同步?

slave节点断开又恢复,并且在repl_baklog中能找到offset时

2.7特点

  1. 一主多从
  2. 读写分离
  3. 主从同步

二.Redis基于哨兵的主从架构集群

1搭建哨兵集群

1.1集群架构

搭建三个节点形成的Sentinel集群,来监管之前的Redis主从集群

1.2创建三个sentinel节点配置文件sentinel.conf

#sentinel节点占用端口
port 27001
#sentinel节点的ip
sentinel announce-ip "192.168.200.130"
#redis主节点的地址,和客观下线的数量
sentinel monitor mymaster 192.168.200.128 7001 2
#主观下线时间,5s和sentinel没有心跳检测成功
sentinel down-after-milliseconds mymaster 5000
#故障转移超时时间
sentinel failover-timeout mymaster 60000
#数据目录的位置
dir "/root/master_slave/sentinel27001"
#是否以后台方式启动
daemonize no
#sentinel节点占用端口
port 27002
#sentinel节点的ip
sentinel announce-ip "192.168.200.130"
#redis主节点的地址,和客观下线的数量
sentinel monitor mymaster 192.168.200.130 7001 2
#主观下线时间,5s和sentinel没有心跳检测成功
sentinel down-after-milliseconds mymaster 5000
#失败迁移超时时间
sentinel failover-timeout mymaster 60000
#数据目录的位置
dir "/root/master_slave/sentinel27002"
#是否以后台方式启动
daemonize no
#sentinel节点占用端口
port 27003
#sentinel节点的ip
sentinel announce-ip "192.168.200.130"
#redis主节点的地址,和客观下线的数量
sentinel monitor mymaster 192.168.200.130 7001 2
#主观下线时间,5s和sentinel没有心跳检测成功
sentinel down-after-milliseconds mymaster 5000
#失败迁移超时时间
sentinel failover-timeout mymaster 60000
#数据目录的位置
dir "/root/master_slave/sentinel27003"
#是否以后台方式启动
daemonize no

1.3启动三个sentinel节点

使用什么命令启动呢?

进入任意redis节点的src目录

redis-sentinel

./redis-sentinel 配置文件

./redis-sentinel /root/master_slave/sentinel27001/sentinel.conf
./redis-sentinel /root/master_slave/sentinel27002/sentinel.conf
./redis-sentinel /root/master_slave/sentinel27003/sentinel.conf

1.4测试故障转移

  • 将master宕机。
  • 观察日志
  • 查看新的主节点
  • 启动旧的master。

2.哨兵的作用和原理

2.1Redis提供了哨兵(Sentinel)机制来实现主从集群的自动故障恢复

  1. 监控:Sentinel 会不断检查您的master和slave是否按预期工作
  2. 自动故障恢复:如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主
  3. 通知:Sentinel充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户端

2.2服务状态监控

Sentinel基于心跳机制监测服务状态,每隔1秒向集群的每个实例发送ping命令

  • 主观下线:实例未在规定时间响应,则认为该实例主观下线。
  • 客观下线:若超过指定数量(quorum)的sentinel都认为该实例主观下线,则该实例客观下线。quorum值最好超过Sentinel实例数量的一半。

2.3选举新的master

  1. 一旦发现master故障,sentinel需要在salve中选择一个作为新的master,选择依据是这样的:
  2. 首先会判断slave节点与master节点断开时间长短,如果超过指定值(down-after-milliseconds * 10)则会排除该slave节点
  3. 然后判断slave节点的slave-priority值,越小优先级越高,如果是0则永不参与选举
  4. 如果slave-prority一样,则判断slave节点的offset值,越大说明数据越新,优先级越高
  5. 最后是判断slave节点的运行id大小,越小优先级越高。

2.4实现故障转移

  1. 当选中了其中一个slave为新的master后(例如slave1),故障的转移的步骤如下
  2. sentinel给备选的slave1节点发送slaveof no one命令,让该节点成为master
  3. sentinel给所有其它slave发送slaveof 192.168.150.101 7002 命令,让这些slave成为新master的从节点,开始从新的master上同步数据。
  4. 最后,sentinel将故障节点标记为slave,当故障节点恢复后会自动成为新的master的slave节点

2.5主从和哨兵可以解决高可用、高并发读的问题。但是有两个问题没有解决:

  1. 海量数据存储问题
  2. 高并发写的问题

三.Redis分片集群

1.使用分片集群可以解决哨兵的问题,分片集群特征:

  1. 集群中有多个master,每个master保存不同数据
  2. 每个master都可以有多个slave节点
  3. master之间通过ping监测彼此健康状态
  4. 客户端请求可以访问集群任意节点,最终都会被转发到正确节点

2.分片集群的搭建

2.1集群架构

一共是6台redis,2台一组,其中一台为master,一台为slave

端口规划

2.2准备6个redis实例

创建一个文件夹

mkdir sharding_cluster

将单机的redis复制6份

cp -r redis-6.2.4 sharding_cluster/8001
cp -r redis-6.2.4 sharding_cluster/8002
cp -r redis-6.2.4 sharding_cluster/8003
cp -r redis-6.2.4 sharding_cluster/8004
cp -r redis-6.2.4 sharding_cluster/8005
cp -r redis-6.2.4 sharding_cluster/8006

修改每个redis的配置文件redis.conf

port 8001
# 开启集群功能
cluster-enabled yes
# 集群的配置文件名称,不需要我们创建,由redis自己维护
cluster-config-file /tmp/8001/nodes.conf
# 节点心跳失败的超时时间
cluster-node-timeout 5000
# 持久化文件存放目录
dir /tmp/8001
# 绑定地址
bind 0.0.0.0
# 让redis后台运行
daemonize yes
# 注册的实例ip
replica-announce-ip 192.168.200.130
# 保护模式
protected-mode no
# 日志
logfile /tmp/8001/run.log

注意:每个端口不同,集群配置文件位置不同,持久化文件位置不同,日志文件位置不同

2.3启动所有redis实例

进入每个redis的src目录

cd /root/sharding_cluster/8001/src/
./redis-server ../redis.conf 
cd /root/sharding_cluster/8002/src/
./redis-server ../redis.conf 
cd /root/sharding_cluster/8003/src/
./redis-server ../redis.conf 
cd /root/sharding_cluster/8004/src/
./redis-server ../redis.conf 
cd /root/sharding_cluster/8005/src/
./redis-server ../redis.conf 
cd /root/sharding_cluster/8006/src/
./redis-server ../redis.conf 

启动redis

./redis-server ../redis.conf
netstat -nltp

2.4创建redis分片集群

进入任意redis实例中

redis-cli --cluster create --cluster-replicas 1 192.168.200.130:8001 192.168.200.130:8002 192.168.200.130:8003 192.168.200.130:8004 192.168.200.130:8005 192.168.200.130:8006

询问否创建yes

通过上面的信息,是否可以看出那些是主,那些是从

3.散列插槽

Redis会把每一个master节点映射到0~16383共16384个插槽(hash slot)上

3.1数据key不是与节点绑定,而是与插槽绑定。redis会根据key的有效部分计算插槽值,分两种情况:

  1. key中包含"{}",且“{}”中至少包含1个字符,“{}”中的部分是有效部分
  2. key中不包含“{}”,整个key都是有效部分

3.2Redis如何判断某个key应该在哪个实例?

  • 将16384个插槽分配到不同的实例
  • 根据key的有效部分计算哈希值,对16384取余
  • 余数作为插槽,寻找插槽所在实例即可

3.3如何将同一类数据固定的保存在同一个Redis实例?

这一类数据使用相同的有效部分,例如key都以{typeId}为前缀

4.集群伸缩

提供了很多操作集群的命令

redis-cli --cluster  help

1.创建分片集群

2.添加节点

        主节点:分配插槽

        从节点

3.删除节点

5.故障转移

5.1当集群中有一个master宕机会发生什么呢?

  1. 首先是该实例与其它实例失去连接
  2. 然后是疑似宕机:
  3. 最后是确定下线,自动提升一个slave为新的master:

5.2数据迁移

手动的Failover支持三种不同模式:

  • 缺省:默认的流程,如上图1~6歩
  • force:省略了对offset的一致性校验
  • takeover:直接执行第5歩,忽略数据一致性、忽略master状态和其它master的意见

6.RedisTemplate访问分片集群

RedisTemplate底层同样基于lettuce实现了分片集群的支持,而使用的步骤与哨兵模式基本一致:

  • 引入redis的starter依赖
  • 配置分片集群地址
  • 配置读写分离

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值