一.Redis主从架构集群
1.搭建主从架构集群搭建
1.1集群的架构
集群架构
伪集群
由于我们只有一个虚拟机,所以我们需要在一个虚拟机上部署三个redis实例,但是需要保证端口不同
1.2准备3个redis
创建一个文件夹方便管理
mkdir master_slave
准备3个redis
将单机的redis复制3份
cp -r redis-6.2.4 master_slave/7001
cp -r redis-6.2.4 master_slave/7002
cp -r redis-6.2.4 master_slave/7003
修改端口分别为端口分别为7001,7002,7003
- 使用finalshell修改三个实例的port
- 修改redis.conf文件
1.3配置主从架构的关系
方式1:修改slave的配置文件,指定主节点的地址(永久生效)
在redis.conf中添加一行配置:
slaveof <masterip> <masterport>
方式2:使用redis-cli客户端连接到slave,执行slaveof或者replicaof命令(重启后失效)
slaveof masterip masterport
1.4启动三个redis实例
分别进入7001,7002,7003的src目录
./redis-server ../redis.conf
查看是否启动(查看网络进程端口占用)
netstat -nltp
1.5查看角色
利用任意节点的redis-cli连接7001实例
./redis-cli -h localhost -p 7001
利用利用任意节点的redis-cli连接7002实例
./redis-cli -h localhost -p 7002
利用利用任意节点的redis-cli连接7003实例
./redis-cli -h localhost -p 7003
查看角色
info replication
1.6测试
利用redis-cli连接7001,执行set num 123
利用redis-cli连接7002,执行get num,再执行set num 666
利用redis-cli连接7003,执行get num,再执行set num 888
发现7002和7003是不能进行写操作
2.主从数据同步的原理
主从第一次同步是全量同步,但如果slave重启后同步,则执行增量同步
2.1简述全量同步的流程
- slave节点请求增量同步
- master节点判断replid,发现不一致,拒绝增量同步
- master将完整内存数据生成RDB,发送RDB到slave
- slave清空本地数据,加载master的RDB
- master将RDB期间的命令记录在repl_baklog,并持续将log中的命令发送给slave
- slave执行接收到的命令,保持与master之间的同步
2.2master如何判断slave是不是第一次来同步数据
slave做数据同步,必须向master声明自己的replication id 和offset,master才可以判断到底需要同步哪些数据
注意
repl_baklog大小有上限,写满后会覆盖最早的数据。如果slave断开时间过久,导致尚未备份的数据被覆盖,则无法基于log做增量同步,只能再次全量同步。
2.3优化Redis主从就集群
- 在master中配置repl-diskless-sync yes启用无磁盘复制,避免全量同步时的磁盘IO。但会消耗网络资源,且网络必须良好
- Redis单节点上的内存占用不要太大,减少RDB导致的过多磁盘IO
- 适当提高repl_baklog的大小,发现slave宕机时尽快实现故障恢复,尽可能避免全量同步
- 限制一个master上的slave节点数量,如果实在是太多slave,则可以采用主-从-从链式结构,减少master压力
2.4简述全量同步和增量同步区别
- 全量同步:master将完整内存数据生成RDB,发送RDB到slave。后续命令则记录在repl_baklog,逐个发送给slave。
- 增量同步:slave提交自己的offset到master,master获取repl_baklog中从offset之后的命令给slave
2.5什么时候执行全量同步?
- slave节点第一次连接master节点时
- slave节点断开时间太久,repl_baklog中的offset已经被覆盖时
2.6什么时候执行增量同步?
slave节点断开又恢复,并且在repl_baklog中能找到offset时
2.7特点
- 一主多从
- 读写分离
- 主从同步
二.Redis基于哨兵的主从架构集群
1搭建哨兵集群
1.1集群架构
搭建三个节点形成的Sentinel集群,来监管之前的Redis主从集群
1.2创建三个sentinel节点配置文件sentinel.conf
#sentinel节点占用端口
port 27001
#sentinel节点的ip
sentinel announce-ip "192.168.200.130"
#redis主节点的地址,和客观下线的数量
sentinel monitor mymaster 192.168.200.128 7001 2
#主观下线时间,5s和sentinel没有心跳检测成功
sentinel down-after-milliseconds mymaster 5000
#故障转移超时时间
sentinel failover-timeout mymaster 60000
#数据目录的位置
dir "/root/master_slave/sentinel27001"
#是否以后台方式启动
daemonize no
#sentinel节点占用端口
port 27002
#sentinel节点的ip
sentinel announce-ip "192.168.200.130"
#redis主节点的地址,和客观下线的数量
sentinel monitor mymaster 192.168.200.130 7001 2
#主观下线时间,5s和sentinel没有心跳检测成功
sentinel down-after-milliseconds mymaster 5000
#失败迁移超时时间
sentinel failover-timeout mymaster 60000
#数据目录的位置
dir "/root/master_slave/sentinel27002"
#是否以后台方式启动
daemonize no
#sentinel节点占用端口
port 27003
#sentinel节点的ip
sentinel announce-ip "192.168.200.130"
#redis主节点的地址,和客观下线的数量
sentinel monitor mymaster 192.168.200.130 7001 2
#主观下线时间,5s和sentinel没有心跳检测成功
sentinel down-after-milliseconds mymaster 5000
#失败迁移超时时间
sentinel failover-timeout mymaster 60000
#数据目录的位置
dir "/root/master_slave/sentinel27003"
#是否以后台方式启动
daemonize no
1.3启动三个sentinel节点
使用什么命令启动呢?
进入任意redis节点的src目录
redis-sentinel
./redis-sentinel 配置文件
./redis-sentinel /root/master_slave/sentinel27001/sentinel.conf
./redis-sentinel /root/master_slave/sentinel27002/sentinel.conf
./redis-sentinel /root/master_slave/sentinel27003/sentinel.conf
1.4测试故障转移
- 将master宕机。
- 观察日志
- 查看新的主节点
- 启动旧的master。
2.哨兵的作用和原理
2.1Redis提供了哨兵(Sentinel)机制来实现主从集群的自动故障恢复
- 监控:Sentinel 会不断检查您的master和slave是否按预期工作
- 自动故障恢复:如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主
- 通知:Sentinel充当Redis客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户端
2.2服务状态监控
Sentinel基于心跳机制监测服务状态,每隔1秒向集群的每个实例发送ping命令
- 主观下线:实例未在规定时间响应,则认为该实例主观下线。
- 客观下线:若超过指定数量(quorum)的sentinel都认为该实例主观下线,则该实例客观下线。quorum值最好超过Sentinel实例数量的一半。
2.3选举新的master
- 一旦发现master故障,sentinel需要在salve中选择一个作为新的master,选择依据是这样的:
- 首先会判断slave节点与master节点断开时间长短,如果超过指定值(down-after-milliseconds * 10)则会排除该slave节点
- 然后判断slave节点的slave-priority值,越小优先级越高,如果是0则永不参与选举
- 如果slave-prority一样,则判断slave节点的offset值,越大说明数据越新,优先级越高
- 最后是判断slave节点的运行id大小,越小优先级越高。
2.4实现故障转移
- 当选中了其中一个slave为新的master后(例如slave1),故障的转移的步骤如下
- sentinel给备选的slave1节点发送slaveof no one命令,让该节点成为master
- sentinel给所有其它slave发送slaveof 192.168.150.101 7002 命令,让这些slave成为新master的从节点,开始从新的master上同步数据。
- 最后,sentinel将故障节点标记为slave,当故障节点恢复后会自动成为新的master的slave节点
2.5主从和哨兵可以解决高可用、高并发读的问题。但是有两个问题没有解决:
- 海量数据存储问题
- 高并发写的问题
三.Redis分片集群
1.使用分片集群可以解决哨兵的问题,分片集群特征:
- 集群中有多个master,每个master保存不同数据
- 每个master都可以有多个slave节点
- master之间通过ping监测彼此健康状态
- 客户端请求可以访问集群任意节点,最终都会被转发到正确节点
2.分片集群的搭建
2.1集群架构
一共是6台redis,2台一组,其中一台为master,一台为slave
端口规划
2.2准备6个redis实例
创建一个文件夹
mkdir sharding_cluster
将单机的redis复制6份
cp -r redis-6.2.4 sharding_cluster/8001
cp -r redis-6.2.4 sharding_cluster/8002
cp -r redis-6.2.4 sharding_cluster/8003
cp -r redis-6.2.4 sharding_cluster/8004
cp -r redis-6.2.4 sharding_cluster/8005
cp -r redis-6.2.4 sharding_cluster/8006
修改每个redis的配置文件redis.conf
port 8001
# 开启集群功能
cluster-enabled yes
# 集群的配置文件名称,不需要我们创建,由redis自己维护
cluster-config-file /tmp/8001/nodes.conf
# 节点心跳失败的超时时间
cluster-node-timeout 5000
# 持久化文件存放目录
dir /tmp/8001
# 绑定地址
bind 0.0.0.0
# 让redis后台运行
daemonize yes
# 注册的实例ip
replica-announce-ip 192.168.200.130
# 保护模式
protected-mode no
# 日志
logfile /tmp/8001/run.log
注意:每个端口不同,集群配置文件位置不同,持久化文件位置不同,日志文件位置不同
2.3启动所有redis实例
进入每个redis的src目录
cd /root/sharding_cluster/8001/src/
./redis-server ../redis.conf
cd /root/sharding_cluster/8002/src/
./redis-server ../redis.conf
cd /root/sharding_cluster/8003/src/
./redis-server ../redis.conf
cd /root/sharding_cluster/8004/src/
./redis-server ../redis.conf
cd /root/sharding_cluster/8005/src/
./redis-server ../redis.conf
cd /root/sharding_cluster/8006/src/
./redis-server ../redis.conf
启动redis
./redis-server ../redis.conf
netstat -nltp
2.4创建redis分片集群
进入任意redis实例中
redis-cli --cluster create --cluster-replicas 1 192.168.200.130:8001 192.168.200.130:8002 192.168.200.130:8003 192.168.200.130:8004 192.168.200.130:8005 192.168.200.130:8006
询问否创建yes
通过上面的信息,是否可以看出那些是主,那些是从
3.散列插槽
Redis会把每一个master节点映射到0~16383共16384个插槽(hash slot)上
3.1数据key不是与节点绑定,而是与插槽绑定。redis会根据key的有效部分计算插槽值,分两种情况:
- key中包含"{}",且“{}”中至少包含1个字符,“{}”中的部分是有效部分
- key中不包含“{}”,整个key都是有效部分
3.2Redis如何判断某个key应该在哪个实例?
- 将16384个插槽分配到不同的实例
- 根据key的有效部分计算哈希值,对16384取余
- 余数作为插槽,寻找插槽所在实例即可
3.3如何将同一类数据固定的保存在同一个Redis实例?
这一类数据使用相同的有效部分,例如key都以{typeId}为前缀
4.集群伸缩
提供了很多操作集群的命令
redis-cli --cluster help
1.创建分片集群
2.添加节点
主节点:分配插槽
从节点
3.删除节点
5.故障转移
5.1当集群中有一个master宕机会发生什么呢?
- 首先是该实例与其它实例失去连接
- 然后是疑似宕机:
- 最后是确定下线,自动提升一个slave为新的master:
5.2数据迁移
手动的Failover支持三种不同模式:
- 缺省:默认的流程,如上图1~6歩
- force:省略了对offset的一致性校验
- takeover:直接执行第5歩,忽略数据一致性、忽略master状态和其它master的意见
6.RedisTemplate访问分片集群
RedisTemplate底层同样基于lettuce实现了分片集群的支持,而使用的步骤与哨兵模式基本一致:
- 引入redis的starter依赖
- 配置分片集群地址
- 配置读写分离