目录
前言
1、单机redis的风险与问题
问题1.机器故障
- 现象:硬盘故障、系统崩溃
- 本质:数据丢失,很可能对业务造成灾难性打击
- 结论:基本上会放弃使用redis.
问题2.容量瓶颈
- 现象:内存不足,从16G升级到64G,从64G升级到128G,无限升级内存
- 本质:穷,硬件条件跟不上
- 结论:放弃使用redis
结论:
为了避免单点Redis服务器故障,准备多台服务器,互相连通。将数据复制多个副本保存在不同的服务器上,连接在一起,并保证数据是同步的。即使有其中一台服务器宕机,其他服务器依然可以继续提供服务,实现Redis的高可用,同时实现数据冗余备份。
2、多台服务器连接方案
提供数据方:master
主服务器,主节点,主库
主客户端
接收数据方:slave
从服务器,从节点,从库
从客户端
需要解决的问题: 数据同步
核心工作: master的数据复制到slave中
一、主从复制简介
主从复制:即将master中的数据即时、有效的复制到slave中
特征:一个master可以拥有多个slave,一个slave只对应一个master
职责:
master:
- 写数据
- 执行写操作时,将出现变化的数据自动同步到slave
- 读数据(可忽略)
slave:
- 读数据
- 写数据(禁止)
高可用集群
主从复制的作用
- 读写分离:master写、slave读,提高服务器的读写负载能力
- 负载均衡:基于主从结构,配合读写分离,由slave分担master负载,并根据需求的变化,改变slave的数量,通过多个从节点分担数据读取负载,大大提高Redis服务器并发量与数据吞吐量
- 故障恢复:当master出现问题时,由slave提供服务,实现快速的故障恢复
- 数据冗余:实现数据热备份,是持久化之外的一种数据冗余方式
- 高可用基石:基于主从复制,构建哨兵模式与集群,实现Redis的高可用方案
二、主从复制工作流程
主从复制过程大体可以分为3个阶段:
- 建立连接阶段(即准备阶段)
- 数据同步阶段
- 命令传播阶段
1、建立连接阶段
建立slave到master的连接,使master能够识别slave,并保存slave端口号
步骤1:设置master的地址和端口,保存master信息
步骤2:建立socket连接
步骤3:发送ping命令(定时器任务)
步骤4:身份验证
步骤5:发送slave端口信息
至此,主从连接成功!
状态:
slave: 保存master的地址与端口
master: 保存slave的端口
总体: 之间创建了连接的socket
主从连接(slave连接master)
主从断开连接
授权访问
2、数据同步阶段工作流程
在slave初次连接master后,复制master中的所有数据到slave ,将slave的数据库状态更新成master当前的数据库状态
步骤1:请求同步数据
步骤2:创建RDB同步数据
步骤3:恢复RDB同步数据
步骤4:请求部分同步数据
步骤5:恢复部分同步数据
至此,数据同步工作完成!
状态:
slave: 具有master端全部数据,包含RDB过程接收的数据
master: 保存slave当前数据同步的位置
总体: 之间完成了数据克隆
数据同步阶段master说明
1)如果master数据量巨大,数据同步阶段应避开流量高峰期,避免造成master阻塞,影响业务正常执行
2)复制缓冲区大小设定不合理,会导致数据溢出。如进行全量复制周期太长,进行部分复制时发现数据已经存在丢失的情况,必须进行第二次全量复制,致使slave陷入死循环状态。
repl-backlog-size 1mb
3)master单机内存占用主机内存的比例不应过大,建议使用50%-70%的内存,留下30%-50%的内存用于执行bgsave命令和创建复制缓冲区
数据同步阶段slave说明
1)为避免slave进行全量复制、部分复制时服务器响应阻塞或数据不同步,建议关闭此期间的对外服务
slave-serve-stale-data yes|no
2)数据同步阶段,master发送给slave信息可以理解master是slave的一个客户端,主动向slave发送命令
3)多个slave同时对master请求数据同步,master发送的RDB文件增多,会对带宽造成巨大冲击,如果master带宽不足,因此数据同步需要根据业务需求,适量错峰
4)slave过多时,建议调整拓扑结构,由一主多从结构变为树状结构,中间的节点既是master,也是slave。注意使用树状结构时,由于层级深度,导致深度越高的slave与最顶层master间数据同步延迟较大,数据一致性变差,应谨慎选择
3、命令传播阶段
当master数据库状态被修改后,导致主从服务器数据库状态不一致,此时需要让主从数据同步到一致的状态,同步的动作称为命令传播 。
master将接收到的数据变更命令发送给slave,slave接收命令后执行命令 。
命令传播阶段的部分复制
服务器运行ID(runid)
1)概念:服务器运行ID是每一台服务器每次运行的身份识别码,一台服务器多次运行可以生成多个运行id
2)组成:运行id由40位字符组成,是一个随机的十六进制字符 ,例如:fdc9ff13b9bbaab28db42b3d50f852bb5e3fcdce
3)作用:运行id被用于在服务器间进行传输,识别身份 。如果想两次操作均对同一台服务器进行,必须每次操作携带对应的运行id,用于对方识别
4)实现方式:运行id在每台服务器启动时自动生成的,master在首次连接slave时,会将自己的运行ID发送给slave,slave保存此ID,通过info Server命令,可以查看节点的runid
复制缓冲区
概念:复制缓冲区,又名复制积压缓冲区,是一个先进先出(FIFO)的队列,用于存储服务器执行过的命令,每次传播命令,master都会将传播的命令记录下来,并存储在复制缓冲区 。
复制缓冲区默认数据存储空间大小是1M,由于存储空间大小是固定的,当入队元素的数量大于队列长度时,最先入队的元素会被弹出,而新元素会被放入队列。
由来:每台服务器启动时,如果开启有AOF或被连接成为master节点,即创建复制缓冲区
作用:用于保存master收到的所有指令(仅影响数据变更的指令,例如set,select)
数据来源:当master接收到主客户端的指令时,除了将指令执行,会将该指令存储到缓冲区中
复制缓冲区内部工作原理
主从服务器复制偏移量(offset)
概念:一个数字,描述复制缓冲区中的指令字节位置
分类:
- master复制偏移量:记录发送给所有slave的指令字节对应的位置(多个)
- slave复制偏移量:记录slave接收master发送过来的指令字节对应的位置(一个)
数据来源:
- master端:发送一次记录一次
- slave端:接收一次记录一次
作用:同步信息,比对master与slave的差异,当slave断线后,恢复数据使用
数据同步+命令传播阶段工作流程
心跳机制
进入命令传播阶段候,master与slave间需要进行信息交换,使用心跳机制进行维护,实现双方连接保持在线 。
master心跳:
- 指令:PING
- 周期:由repl-ping-slave-period决定,默认10秒
- 作用:判断slave是否在线
- 查询:INFO replication 获取slave最后一次连接时间间隔,lag项维持在0或1视为正常
slave心跳任务 :
- 指令:REPLCONF ACK {offset}
- 周期:1秒
- 作用1:汇报slave自己的复制偏移量,获取最新的数据变更指令
- 作用2:判断master是否在线
心跳阶段注意事项
当slave多数掉线,或延迟过高时,master为保障数据稳定性,将拒绝所有信息同步操作
min-slaves-to-write 2
min-slaves-max-lag 8
slave数量少于2个,或者所有slave的延迟都大于等于10秒时,强制关闭master写功能,停止数据同步。
slave数量由slave发送REPLCONF ACK命令做确认
slave延迟由slave发送REPLCONF ACK命令做确认
主从复制工作流程(完整)
三、Redis集群1拖2主从配置
1、环境说明
主机名称 | IP地址 | redis版本和角色说明 |
---|---|---|
weekend110 | 192.168.2.100 | redis-5.0.8(主) |
weekend01 | 192.168.2.101 | redis-5.0.8(从) |
weekend02 | 192.168.2.102 | redis-5.0.8(从) |
2、修改主从的redis配置文件
1) 修改主服务器上的 redis.conf 文件中的内容:
bind 192.168.2.100
protected-mode yes
port 6379
daemonize yes
pidfile /var/run/redis_6379.pid
logfile "/home/hadoop/app/redis-5.0.8/logs/redis.log"
dir ./
2) 分别修改两台从服务器上的 redis.conf 文件中的内容:
bind 192.168.2.101
protected-mode yes
port 6379
daemonize yes
pidfile /var/run/redis_6379.pid
logfile "/home/hadoop/app/redis-5.0.8/logs/redis.log"
dir ./
replicaof 192.168.2.100 6379 #配置为master的从,如果master上有密码配置,还需要增加下面一项密码配置
masterauth 123456 #配置主的密码
bind 192.168.2.102
protected-mode yes
port 6379
daemonize yes
pidfile /var/run/redis_6379.pid
logfile "/home/hadoop/app/redis-5.0.8/logs/redis.log"
dir ./
replicaof 192.168.2.100 6379 #配置为master的从,如果master上有密码配置,还需要增加下面一项密码配置
masterauth 123456 #配置主的密码
3、启动主从redis
这里需要注意的是:redis主从和mysql主从不一样,redis主从不用事先同步数据,它会自动同步过去
[hadoop@weekend110 redis-5.0.8]$ bin/redis-server etc/redis.conf
[hadoop@weekend01 redis-5.0.8]$ bin/redis-server etc/redis.conf
[hadoop@weekend02 redis-5.0.8]$ bin/redis-server etc/redis.conf
查看进程都起来了:
[hadoop@weekend110 redis-5.0.8]$ netstat -unlpt|grep redis
tcp 0 0 192.168.2.100:6379 0.0.0.0:* LISTEN 2887/bin/redis-serv
[hadoop@weekend01 redis-5.0.8]$ netstat -unlpt|grep redis
tcp 0 0 192.168.2.101:6379 0.0.0.0:* LISTEN 2784/bin/redis-serv
[hadoop@weekend02 redis-5.0.8]$ netstat -unlpt|grep redis
tcp 0 0 192.168.2.102:6379 0.0.0.0:* LISTEN 3071/bin/redis-serv
4、数据同步验证
#主上写入数据
[hadoop@weekend110 redis-5.0.8]$ bin/redis-cli -h 192.168.2.100
192.168.2.100:6379> KEYS *
(error) NOAUTH Authentication required.
192.168.2.100:6379> auth 123456
OK
192.168.2.100:6379> keys *
1) "name"
2) "list"
192.168.2.100:6379> set k1 123
OK
192.168.2.100:6379> set k2 456
OK
192.168.2.100:6379> keys *
1) "k2"
2) "name"
3) "k1"
4) "list"
#slave01上查看是否数据同步
[hadoop@weekend01 redis-5.0.8]$ bin/redis-cli -h 192.168.2.101
192.168.2.101:6379> KEYS *
(error) NOAUTH Authentication required.
192.168.2.101:6379> auth 123456
OK
192.168.2.101:6379> KEYS *
1) "name"
2) "list"
3) "k2"
4) "k1"
192.168.2.101:6379> GET k1
"123"
192.168.2.101:6379> GET k2
"456"
#slave02上查看是否数据同步
[hadoop@weekend02 redis-5.0.8]$ bin/redis-cli -h 192.168.2.102
192.168.2.102:6379> auth 123456
OK
192.168.2.102:6379> KEYS *
1) "k1"
2) "name"
3) "k2"
4) "list"
192.168.2.102:6379> get k1
"123"
192.168.2.102:6379> get k2
"456"