主从复制的概念
Redis是否高可用
单机redis的风险与问题
-
问题1:机器故障
现象:硬盘故障、系统崩溃
本质:数据丢失,对业务造成灾难性打击 -
问题2:容量瓶颈
现象:内存不足,16G升级到64G,从64G升级到128G,无限升级
本质:穷,硬件条件跟不上 -
结论:
为了避免单点redis服务器故障,准备多台服务器,互相联通,将数据复制多个副本
保存在不同的服务器上,连接在一起,并保证数据是同步的。即使有一台服务器宕机,其他
服务器仍然可以继续提供服务,实现Redis高可用,同时实现数据冗余备份
多台服务器连接方法
-
提供数据方:master
主服务器,主节点,主库,主客户端 -
接收数据方:slave
从服务器,从节点,从库,从客户端 -
需要解决的问题:数据同步
-
核心工作:master的数据复制到slave中
主从复制
主从复制即将master中的数据及时,有效的复制到slave中
特征:一个master可以拥有多个slave,一个slave只对应一个master
职责:
- master:写数据/执行写操作时,将出现变化的数据自动同步到slave/读数据(可忽略)
- slave:读数据/写数据(禁止)
(主从复制模式图)
图片来源于网络
高可用集群
主从复制的作用:
- 读写分离:master写,slave读,提高服务器的读写负载能力
- 负载均衡:基于主从结构,配合读写分离,由slave分担master负载,并根据需要的变化
改变slave的数量,通过多个从节点分担数据读取负载,大大提高Redis服务器并发量与数据吞吐量 - 故障恢复:当master出现问题时,由slave提供服务,实现快速的故障恢复
- 数据冗余:实现数据热备份,是持久化之外的一种数据冗余方式
- 高可用基石:基于主从复制,构建哨兵模式与集群,实现Redis的高可用方案
主从复制过程大体分为3个阶段
-
建立连接阶段(即准备阶段)
- 设置master的地址和端口,保存master信息
- 建立socket连接
- 发送ping(定时器任务)
- 身份验证
- 发送slave端口信息
状态:
slave:保存master的地址和短端口
master:保存slave的端口
总体:之间创建了连接的socket
(建立连接阶段流程图)
图片来源于网络 -
数据同步阶段
-
命令传播阶段
阶段一:建立连接阶段(即准备阶段)
主从连接(slave连接master)
这里用6380作为slave,6379作为master
-
第一种方式(客户端发送命令)
// 拿6380端口的去连接6379的 127.0.0.1:6380> slaveof 127.0.0.1 6379 OK // 6379端口设置key 127.0.0.1:6379> set name zhangsan OK // 6380端口的取key 127.0.0.1:6380> get name "zhangsan"
-
第二种方式(启动服务器参数)
// 启动服务时直接在后面加参数 redis-server /usr/local/redis/myredis/redis6380.conf --slaveof 127.0.0.1 6379
-
第三种方式(配置文件)推荐
在(6380端口)配置文件中(redis6380.conf)追加一句话:slaveof 127.0.0.1 6379
断开连接
从客户端:slaveof no one
阶段二:数据同步阶段工作流程
- 步骤一:请求同步数据
- 步骤二:创建RDB同步数据
- 步骤三:恢复RDB同步数据
- 步骤四:请求部分同步数据
- 步骤五:恢复部分同步数据
(要了解全量复制跟部分复制的概念)
状态:
- slave:具有master端全部数据,包含RDB过程接收的数据
- master:保存slave当前数据同步位置
(数据同步阶段工作流程图)
图片来源于网络
数据同步阶段master说明
-
如果master数据量巨大,数据同步阶段应该避开流量高峰期,避免造成master阻塞,影响业务正常执行
-
复制缓冲区大小设置不合理,会导致数据溢出。如进行全量复制周期太长,进行部分复制时发现数据已经存在丢失的情况,必须进行第二次全量复制,致使slave陷入死循环状态
repl-backlog-size 1mb 默认
-
master单机内存占用主机内存的比例不应过大,建议使用50%-70%的内存,留下30%-50%的内存用于执行bgsave命令和创建复制缓冲区
数据同步阶段slave说明
-
为避免slave进行全量复制、部分复制时服务器响应阻塞或数据不同步,建议关闭此期间的对外服务(只提供读的操作)
slave-serve-stale-data yes|no
-
数据同步阶段,master发送给slave信息可以理解为master是slave的一个客户端,主动向slave发送命令
-
多个slave同时对master请求数据同步,master发送的RDB文件增多,会对带宽造成巨大冲击,如果master带宽不足,因此数据同步需要根据业务需求,适量错峰
-
slave过多时,建议调整拓扑结构,由一主多从结构变为树状结构,中间的节点既是master也是slave。过多使用树状结构时,由于层级深度,导致深度越高的slave与最顶层master间数据同步延迟较大,数据一致性变差,应谨慎选择。
阶段三:命令传播阶段
- 当master数据库状态被修改后,导致主从服务器数据库状态不一致,此时需要让主从数据同步到一致状态,同步的动作称为命令传播
- master将接收到的数据变更命令发送给slave,slave接收命令后执行命令
命令传播阶段的部分复制
-
命令传播阶段出现了断网现象
- 网络闪断闪连 忽略
- 短时间网络中断 部分复制
- 长时间网络中断 全量复制
-
部分复制的三个核心要素:
-
服务器的运行id(run id)
-
概念:服务器运行ID是每一台服务器每次运行的身法识别码,一台服务器多次运行可以生成多个运行id
-
组成:运行id是由40位字符组成,是一个随机的十六进制字符
-
运行id被用于服务器间进行传输,识别身份,如果想两次操作均对同一台服务器进行,必须每次操作携带对应的id,用于对方识别
-
实现方式:运行id在每台服务器启动时自动生成的,master在首次连接slave时,会将自己的运行ID发送给slave,slave保存此ID,通过info Server命令,可以查看节点的runid
-
-
主服务器的复制积压缓冲区
- 概念:复制缓冲区,又名复制积压缓冲区,是一个先进先出的(FIFO)的队列,用于存储服务器执行过的命令,每次传播命令,master都会将传播的命令记录下来,并存储在复制缓冲区
(图片:复制缓冲区的概念)
图片来源于网络
每次复制缓冲区默认数据存储空间大小是1M,由于存储空间大小是固定的,当入队元素的数量大于队列长度时,最先入队的元素会被弹出,而新元素会被放入队列- 由来:每台服务器启动时,如果开启有AOF或连接成为master节点,即创建复制缓冲区
- 作用:用于保存master收到的所有指令(仅影响数据变更的指令,例如set,select)
- 数据来源:当master接收到主客户端的指令时,除了将指令执行,会将该指令存储到缓冲区中
(图:复制缓冲区内部工作原理)
图片来源于网络 - 概念:复制缓冲区,又名复制积压缓冲区,是一个先进先出的(FIFO)的队列,用于存储服务器执行过的命令,每次传播命令,master都会将传播的命令记录下来,并存储在复制缓冲区
-
主从服务器的复制偏移量
- 概念:一个数字,描述复制缓冲区中的指令字节位置
- 分类:
- master复制偏移量:记录发送给所有slave的指令字节对应的位置(多个)
- slave复制偏移量:记录slave接收master发送过来的指令字节对应的位置(一个)
- 数据来源:
master端:发送一次记录一次
slave端:接收一次记录一次
- 作用:同步信息,对比master与slave的差异,当slave断线后,恢复数据使用
- 组成:偏移量、字节值
- 工作原理:通过offset区分不同的slave当前数据传播的差异
master记录已发送的信息对应的offset
slave记录已接收的信息对应的offset
-
命令传播阶段:心跳机制
-
进入命令传播阶段,master与slave间需要进行信息交换,使用心跳机制进行维护,实现双方连接保持在线
-
master心跳:
- 指令:PING
- 周期:由repl-ping-slave-period决定,默认10秒
- 作用:判断slave是否在线
- 查询:INFO replication 获取slave最后一次连接时间间隔,lag项维持在0或1视为正常
-
slave心跳任务:
- 指令:REPLCONF ACK {offset}
- 周期:1秒
- 作用1:汇报slave自己的复制偏移量,获取最新的数据变更指令
- 作用2:判断master是否在线
(图:心跳机制-lag)
心跳机制注意事项:
-
当slave多数掉线,或延迟过高时,master为保障数据稳定性,将拒绝所有信息同步
min-slaves-to-write 2 min-slaves-max-lag 8
slave数量少于2个或者slave的延迟都大于10秒时,强制关闭master写功能,停止数据同步
-
slave数量由slave发送 REPLCONF ACK 命令做确认
-
slave延迟由slave发送 REPLCONF ACK 命令做确认
主从复制完整工作流程
(图:主从复制工作流程(完整))
图片来源于网络
图片来源于网络
主从复制常见问题
- 频繁的全量复制
- 伴随着系统的运行,master的数据量会越来越大,一旦master重启,runid将会发生变化,会导致全部slave的全量复制操作—内部优化调整方案—作用:本机保存上次runid,重启后恢复该值,使所有slave认为还是之前的master
- 问题现象:网络环境不佳,出现网络中断,slave不提供服务
问题原因:复制缓冲区过小,断网后slave的offset越界,触发全量复制
最终结果:slave反复进行全量复制
解决方案:修改复制缓冲区大小 repl-backlog-size
建议设置:
1. 测试从master到slave的重连平均时长second
2. 获取master平均每秒产生写命令数据总量write_size_per_second
3. 最优复制缓冲区空间=2secondwrite_size_per_second
-
频繁的网络中断(1)
-
问题现象:master的cpu占用过高或slave频繁断开连接
-
问题原因:slave每秒发送REPLCONF ACK命令到master,当slave接收到了慢查询时(keys *,hgetall等),会大量占用CPU性能,master每秒调用复制定时函数repliationCron(),比对slave发现长时间没有进行响应
-
最终结果:master各种资源(输出缓冲区、带宽、连接等)被严重占用
-
解决方案:通过设置合理的超时时间,确认是否释放slave
repl-timeout
该参数定义了超时时间的阈值(默认60秒),超过该值,释放slave
-
-
频繁的网络中断(2)
- 问题现象:slave与master连接断开
- 问题原因:master发送ping指令频度较低;master设定超时时间较短;ping指令在网络中存在丢包
- 解决方案:提高ping指令发送频度repl-ping-slave-period
超时时间repl-time的时间至少是ping指令频度的5到10倍,否则slave很容易判断超时
-
数据不一致
- 问题现象:多个slave获取相同数据不同步
- 问题原因:网络信息不同步,数据发送有延迟
- 解决方案:
- 优化主从间的网络环境,通常放置在同一个机房部署,如使用阿里云等服务器时要注意此现象
- 监控主从节点延迟(通过offset)判断,如果slave延迟过大,暂时屏蔽程序对该slave的数据访问
slave-serve-stale-data yes|no
开启后仅响应info、slaveof等少数命令(慎用,除非对数据一致性要求很高)