主从复制 数据备份 读写分离 高可用 一主多从 一主一从 slave只能有一个master 数据流向只能 从master到slave
实现方式:slaveof 配置
salveof 命令方式 : 在主client上执行命令 salveof 127.0.0.1:6380 返回OK(但异步执行) 完成数据的复制(全量复制)并且从节点会将自身原先所有数据清除
salveof no one 断开主从复制关系 在从节点上执行命令slaveof no one
配置文件方式:在配置文件中添加 slaveof ip port 同时配置 slave-read-only yes 从节点只能读
info replication 查看redis主从复制状态
全量复制和部分复制
runid redis cli的唯一标识 重启后会发生变化
offset 主从同步的标志 写入数据后发生偏移 主从偏移一致说明数据同步 部分复制的重要依据
全量复制 首先将本身的rdb文件同步给slave,在同步过程中的新增数据单独记录 通过之后的偏移量对比 将新的数据同步给slave
首先第一次要求主从复制 由于不知道主节点runid 和偏移地址 会发送psync ? -1
主节点收到后会要求slave进行全量复制 fullresync 并告知slave自己的runid 和 当前偏移地址
从节点保存主节点地址 主节点开始bgsave 生成rdb文件 并同时将新的数据记录到rep_back_buffer(1M)中
将rdb文件和buffer中记录发送给从节点 从节点刷新掉自己原本拥有的数据 加载rbd文件 完成数据最终同步
全量复制的开销 bgsave时间消耗 rbd文件网络传输 slave节点清空自身数据 加载rdb
部分复制 针对在全量复制中因网络连接断开而丢失的数据
同步过程中 网络断开,断开这期间的数据记录都会丢失,从节点重新连接到主节点,会发送psync加上自己的偏移量,
主节点会去对比当前偏移量是否在自己buffer范围内 ,如果不在 说明丢失数据过多 会发生一次全量复制
如果在自己buffer范围内 会将offset到最新的记录之间的数据同步给slave
主从复制中故障处理
故障转移 从节点宕机 问题不大
主节点宕机 :在一个从节点中执行 slaveof no one 升级为主节点 并将其他从节点的主更改为新的主节点(sentinel 自动转移)
主从复制常见问题 主从配置不一致 规避全量复制 规避复制风暴
配置不一样: 主从maxmemory不一致 : 会造成丢失数据
数据结构优化参数不一致 造成数据丢失
规避全量复制:第一次全量复制不可避免 节点运行不匹配 (节点故障重启后 会进行一次全量复制 推荐使用sentinel和cluster)
复制缓冲区不足 部分复制无法满足 会发生全量复制
规避复制风暴:复制风暴:单主节点重启后 从节点全部都要复制主节点数据 对网络传输和cpu开销压力较大
使用sentinel 架构 解决