Redis总结6——复制


  在分布式系统中为了解决单点问题,通常会把数据复制多个副本部署到其他机器,满足故障恢复和负载均衡等需求。Redis也是如此,它为我们提供了复制功能,实现了相同数据的多个Redis副本。复制功能是高可用Redis的基础,后面的哨兵和集群都是在复制的基础上实现高可用的。

1:配置

1.1:建立连接

  参与复制的Redis实例划分为主节点(master)和从节点(slave)。默认情况下,Redis都是主节点。每个从节点只能有一个主节点,而主节点可以同时具有多个从节点。复制的数据流是单向的,只能由主节点复制到从节 点。配置复制的方式有以下三种:

  1. 在配置文件中加入slaveof{masterHost}{masterPort}随Redis启动生效。
  2. 在redis-server启动命令后加入- -slaveof{masterHost}{masterPort}生效。
  3. 预设从节点直接使用命令:slaveof{masterHost}{masterPort}生效。

在这里插入图片描述

1.2:断开复制

  slaveof命令不但可以建立复制,还可以在从节点执行slaveof no one来断 开与主节点复制关系。例如在6380节点上执行slaveof no one来断开复制。断开复制后从节点晋升为主节点,并且不会抛弃原有数据,只是无法再获取主节点上的数据变化。通过slaveof命令还可以实现切主操作,所谓切主是指把当前从节点对主 节点的复制切换到另一个主节点。执行slaveof{newMasterIp} {newMasterPort}命令即可,切主后从节点会清空之前所有的数据,然后再对新主节点进行复制操作。

1.3:安全性

  对于数据比较重要的节点,主节点会通过设置requirepass参数进行密码验证,这时所有的客户端访问必须使用auth命令实行校验。从节点与主节点的复制连接是通过一个特殊标识的客户端来完成,因此需要配置从节点的masterauth参数与主节点密码保持一致,这样从节点才可以正确地连接到主节点并发起复制流程。
在这里插入图片描述

1.4:传输延迟

  主从节点一般部署在不同机器上,复制时的网络延迟就成为需要考虑的问题,Redis为我们提供了repl-disable-tcp-nodelay参数用于控制是否关闭 TCP_NODELAY,默认关闭,说明如下:

  • 当关闭时,主节点产生的命令数据无论大小都会及时地发送给从节 点,这样主从之间延迟会变小,但增加了网络带宽的消耗。适用于主从之间 的网络环境良好的场景,如同机架或同机房部署。
  • 当开启时,主节点会合并较小的TCP数据包从而节省带宽。默认发送 时间间隔取决于Linux的内核,一般默认为40毫秒。这种配置节省了带宽但 增大主从之间的延迟。适用于主从网络环境复杂或带宽紧张的场景,如跨机房部署。

2:拓扑结构

  1. 一主一从结构
      一主一从结构是最简单的复制拓扑结构,用于主节点出现宕机时从节点提供故障转移支持(如图所示)。当应用写命令并发量较高且需要持久化时,可以只在从节点上开启AOF,这样既保证数据安全性同时也避免了持久化对主节点的性能干扰。但需要注意的是,当主节点关闭持久化功能时, 如果主节点脱机要避免自动重启操作。因为主节点之前没有开启持久化功能 自动重启后数据集为空,这时从节点如果继续复制主节点会导致从节点数据也被清空的情况,丧失了持久化的意义。安全的做法是在从节点上执行 slaveof no one断开与主节点的复制关系,再重启主节点从而避免这一问题。
    在这里插入图片描述
  2. 一主多从结构
      一主多从结构(又称为星形拓扑结构)使得应用端可以利用多个从节点 实现读写分离。对于读占比较大的场景,可以把读命令发送到从节点来分担主节点压力。同时在日常开发中如果需要执行一些比较耗时的 读命令,如:keys、sort等,可以在其中一台从节点上执行,防止慢查询对 主节点造成阻塞从而影响线上服务的稳定性。但是对于写并发量较高的场景,多 个从节点会导致主节点写命令的多次发送从而过度消耗网络带宽,同时也加重了主节点的负载影响服务稳定性。
    在这里插入图片描述
    3. 树状主从结构
      树状主从结构(又称为树状拓扑结构)使得从节点不但可以复制主节点 数据,同时可以作为其他从节点的主节点继续向下层复制。通过引入复制中间层,可以有效降低主节点负载和需要传送给从节点的数据量。如图所示,数据写入节点A后会同步到B和C节点,B节点再把数据同步到D和E节 点,数据实现了一层一层的向下复制。当主节点需要挂载多个从节点时为了 避免对主节点的性能干扰,可以采用树状主从结构降低主节点压力。
    在这里插入图片描述

3:复制原理

  在从节点执行slaveof命令后,复制过程便开始运作,下面详细介绍建立复制的流程,如图:
在这里插入图片描述

  1. 保存主节点(master)信息:执行slaveof后从节点只保存主节点的地址信息便直接返回,这时建立复制流程还没有开始。主节点此时的连接状态(master_link_status)是下线状态。

  2. 从节点(slave)内部通过每秒运行的定时任务维护复制相关逻辑, 当定时任务发现存在新的主节点后,会尝试与该节点建立网络连接,连接成功后从节点会建立一个socket套接字,专门用于接受主节点发送的复制命令。如图所示。
    在这里插入图片描述
      如果从节点无法建立连接,定时任务会无限重试直到连接成功或者手动执行 slaveof no one取消复制,如下图所示。关于连接失败,可以在从节点执行info replication查看 master_link_down_since_seconds指标,它会记录与主节点连接失败的系统时间。
    在这里插入图片描述

  3. 发送ping命令
    连接建立成功后从节点发送ping请求进行首次通信,ping请求主要目的:

    • 检测主从之间网络套接字是否可用。
    • 检测主节点当前是否可接受处理命令。

       如果发送ping命令后,从节点没有收到主节点的pong回复或者超时,比 如网络超时或者主节点正在阻塞无法响应命令,从节点会断开复制连接,下 次定时任务会发起重连。
    在这里插入图片描述

  4. 权限验证

      如果主节点设置了requirepass参数,则需要密码验证, 从节点必须配置masterauth参数保证与主节点相同的密码才能通过验证;如 果验证失败复制将终止,从节点重新发起复制流程。

  5. 同步数据集
      主从复制连接正常通信后,对于首次建立复制的场景,主节点会把持有的数据全部发送给从节点,这部分操作是耗时最长的步 骤。Redis在2.8版本以后采用新复制命令psync进行数据同步,原来的sync命 令依然支持,保证新旧版本的兼容性。新版同步划分两种情况:全量同步和部分同步,后文将重点介绍。

  6. 命令持续复制
      当主节点把当前的数据同步给从节点后,便完成了复制的建立流程。接下来主节点会持续地把写命令发送给从节点,保证主从 数据一致性.

4:数据同步

  Redis在2.8及以上版本使用psync(2.8版本开始,之前使用sync)命令完成主从数据同步,同步过程分为:全量复制和部分复制。在介绍它们之前先介绍psync命令:

4.1:psync命令介绍

从节点使用psync命令完成部分复制和全量复制功能,psync命令运行需要以下组件支持:

  • 主从节点各自复制偏移量。
  • 主节点复制积压缓冲区。
  • 主节点运行id。

1)复制偏移量
  参与复制的主从节点都会维护自身复制偏移量。主节点(master)在处理完写入命令后,会把命令的字节长度做累加记录,统计信息在info relication中的master_repl_offset指标中.
在这里插入图片描述

  从节点在接收到主节点发送的命令后,也会累加记录自身的偏移量。而且每秒钟上报自身的复制偏移量给主节点,因此主节点 也会保存从节点的复制偏移量,统计指标如下
在这里插入图片描述

  通过对比主从节点的复制偏移量,可以判断主从节点数据是否一致。
2)复制积压缓冲区
  复制积压缓冲区是保存在主节点上的一个固定长度的队列,默认大小为 1MB,当主节点有连接的从节点(slave)时被创建,这时主节点(master) 响应写命令时,不但会把命令发送给从节点,还会写入复制积压缓冲区。
在这里插入图片描述
3)主节点运行ID
  每个Redis节点启动后都会动态分配一个40位的十六进制字符串作为运 行ID。运行ID的主要作用是用来唯一识别Redis节点,如果只使用ip+port的方式识 别主节点,那么主节点重启变更了整体数据集(如替换RDB/AOF文件), 从节点再基于偏移量复制数据将是不安全的,因此当运行ID变化后从节点将做全量复制。可以运行info server命令查看当前节点的运行ID:
在这里插入图片描述

  需要注意的是Redis关闭再启动后,运行ID会随之改变,可以使用debug reload命 令重新加载RDB并保持运行ID不变,从而有效避免不必要的全量复制。

debug reload命令会阻塞当前Redis节点主线程,阻塞期间会生成本地 RDB快照并清空数据之后再加载RDB文件。因此对于大数据量的主节点和无 法容忍阻塞的应用场景,谨慎使用。

  psync的命令格式为:psync{runId}{offset},runId:从节点所复制主节点的运行id,offset:当前从节点已复制的数据偏移量(如果是第一次参与复制默认为-1),其运行流程图如下:
在这里插入图片描述

4.1:全量复制

  一般用于初次复制场景,也是主从第一次建立复制时必 须经历的阶段。Redis早期支持的复制功能只有全量复制,它会把主节点全部数据一次性发送给从节点,当数据量较大时,会 对主从节点和网络造成很大的开销。

全量复制的流程
在这里插入图片描述

1)发送psync命令进行数据同步,由于是第一次进行复制,从节点没有复制偏移量和主节点的运行ID,所以发送psync-1。
2)主节点根据psync-1解析出当前为全量复制,回复+FULLRESYNC响应。
3)从节点接收主节点的响应数据保存运行ID和偏移量offset。
4)主节点执行bgsave保存RDB文件到本地.
5)主节点发送RDB文件给从节点,从节点把接收的RDB文件保存在本地并直接作为从节点的数据文件
6)对于从节点开始接收RDB快照到接收完成期间,主节点仍然响应读写命令,因此主节点会把这期间写命令数据保存在复制客户端缓冲区内,当从节点加载完RDB文件后,主节点再把缓冲区内的数据发送给从节点,保证主从之间数据一致性。
7)从节点接收完主节点传送来的全部数据后会清空自身旧数据。
8)从节点清空数据后开始加载RDB文件,对于较大的RDB文件,这一 步操作依然比较耗时。
9)从节点成功加载完RDB后,如果当前节点开启了AOF持久化功能, 它会立刻做bgrewriteaof操作,为了保证全量复制后AOF持久化文件立刻可用。

  通过分析全量复制的所有流程,读者会发现全量复制是一个非常耗时费力的操作。它的时间开销主要包括:

  • 主节点bgsave时间。
  • RDB文件网络传输时间。
  • 从节点清空数据时间。
  • 从节点加载RDB的时间。
  • 可能的AOF重写时间。

4.3:部分复制

  部分复制是对老版复制的重大优化,有效避免了不必要的全量复制操作。当从节点(slave)正在复制主节点 (master)时,如果出现网络闪断或者命令丢失等异常情况时,从节点会向主节点要求补发丢失的命令数据,如果主节点的复制积压缓冲区内存在这部分数据则直接发送给从节点,这样就可以保持主从节点复制的一致性。补发的这部分数据一般远远小于全量数据,所以开销很小。部分复制流程如下:
在这里插入图片描述
流程说明:
1)当主从节点之间网络出现中断时,如果超过repl-timeout时间,主节点会认为从节点故障并中断复制连接,并打印相应的日志。
2)主从连接中断期间主节点依然响应命令,但因复制连接中断命令无法发送给从节点,不过主节点内部存在的复制积压缓冲区,依然可以保存最近一段时间的写命令数据,默认最大缓存1MB。
3)当主从节点网络恢复后,从节点会再次连上主节点。
4)当主从连接恢复后,由于从节点之前保存了自身已复制的偏移量和主节点的运行ID。因此会把它们当作psync参数发送给主节点,要求进行部分复制操作。
5)主节点接到psync命令后首先核对参数runId是否与自身一致,如果一致,说明之前复制的是当前主节点;之后根据参数offset在自身复制积压缓 冲区查找,如果偏移量之后的数据存在缓冲区中,则对从节点发送+CONTINUE响应,表示可以进行部分复制。
6)主节点根据偏移量把复制积压缓冲区里的数据发送给从节点,保证 主从复制进入正常状态。

5:心跳

主从节点在建立复制后,它们之间维护着长连接并彼此发送心跳命令。
在这里插入图片描述
1)主节点默认每隔10秒对从节点发送ping命令,判断从节点的存活性 和连接状态。可通过参数repl-ping-slave-period控制发送频率。

2)从节点在主线程中每隔1秒发送replconf ack{offset}命令,给主节点 上报自身当前的复制偏移量。replconf命令主要作用如下:
·实时监测主从节点网络状态。
·上报自身复制偏移量,检查复制数据是否丢失,如果从节点数据丢 失,再从主节点的复制缓冲区中拉取丢失数据。
·实现保证从节点的数量和延迟性功能,通过min-slaves-to-write、min- slaves-max-lag参数配置定义。

6:开发与运维中的问题

  通过复制机制,数据集可以存在多个副本(从节点)。这些副本可以应用于读写分离、故障转移(failover)、实时备份等场景。但是在实际应用复制功能时,依然有一些坑需要跳过。

6.1:读写分离

  对于读占比较高的场景,可以通过把一部分读流量分摊到从节点 (slave)来减轻主节点(master)压力,同时需要注意永远只对主节点执行写操作,如图所示:
在这里插入图片描述
但是当使用从节点响应读请求时,业务端可能会遇到如下问题:

  • 复制数据延迟。
  • 读到过期数据。
  • 从节点故障。

1)数据延迟
  Redis复制数据的延迟由于异步复制特性是无法避免的,延迟取决于网络带宽和命令阻塞情况,比如刚在主节点写入数据后立刻在从节点上读取可能获取不到。需要业务场景允许短时间内的数据延迟。对于无法容忍大量延迟场景,可以编写外部监控程序监听主从节点的复制偏移量,当延迟较大时 触发报警或者通知客户端避免读取延迟过高的从节点。
2)读到过期数据
  当主节点存储大量设置超时的数据时,如缓存数据,Redis内部需要维护过期数据删除策略,删除策略主要有两种:惰性删除和定时删除。

  • 惰性删除:主节点每次处理读取命令时,都会检查键是否超时,如果超 时则执行del命令删除键对象,之后del命令也会异步发送给从节点。需要注 意的是为了保证复制的一致性,从节点自身永远不会主动删除超时数据
  • 定时删除:Redis主节点在内部定时任务会循环采样一定数量的键,当 发现采样的键过期时执行del命令,之后再同步给从节点。

3)从节点故障问题
  对于从节点的故障问题,需要在客户端维护可用从节点列表,当从节点故障时立刻切换到其他从节点或主节点上。这个过程类似上文提到的针对延 迟过高的监控处理,需要开发人员改造客户端类库。

  综上所出,使用Redis做读写分离存在一定的成本。Redis本身的性能非常高,开发人员在使用额外的从节点提升读性能之前,尽量在主节点上做充分优化,比如解决慢查询,持久化阻塞,合理应用数据结构等,当主节点优化空间不大时再考虑扩展。建议大家在做读写分离之前,可以考虑使用 Redis Cluster等分布式解决方案,这样不止扩展了读性能还可以扩展写性能和可支撑数据规模,并且一致性和故障转移也可以得到保证,对于客户端的维护逻辑也相对容易。

7.2:规避全量复制

  全量复制是一个非常消耗资源的操作,前面做了具体说明。因此如何规避全量复制是需要重点关注的运维点。下面我们对需要进行全量复制的场景逐个分析:

  • 第一次建立复制:由于是第一次建立复制,从节点不包含任何主节点 数据,因此必须进行全量复制才能完成数据同步。对于这种情况全量复制无法避免。当对数据量较大且流量较高的主节点添加从节点时,建议在低峰时进行操作,或者尽量规避使用大数据量的Redis节点。
  • 节点运行ID不匹配:当主从复制关系建立后,从节点会保存主节点的 运行ID,如果此时主节点因故障重启,那么它的运行ID会改变,从节点发现 主节点运行ID不匹配时,会认为自己复制的是一个新的主节点从而进行全量 复制。对于这种情况应该从架构上规避,比如提供故障转移功能。当主节点发生故障后,手动提升从节点为主节点或者采用支持自动故障转移的哨兵或集群方案。
  • 复制积压缓冲区不足:当主从节点网络中断后,从节点再次连上主节点时会发送psync{offset}{runId}命令请求部分复制,如果请求的偏移量不在主节点的积压缓冲区内,则无法提供给从节点数据,因此部分复制会退化为全量复制。针对这种情况需要根据网络中断时长,写命令数据量分析出合理的积压缓冲区大小。网络中断一般有闪断、机房割接、网络分区等情况。这时网络中断的时长一般在分钟级(net_break_time)。写命令数据量可以统计高峰期主节点每秒info replication的master_repl_offset差值获取(write_size_per_minute)。积压缓冲区默认为1MB,对于大流量场景显然不够,这时需要增大积压缓冲区,保证repl_backlog_size>net_break_time*write_size_per_minute,从而避免因复制积 压缓冲区不足造成的全量复制。

7.3:规避复制风暴

  复制风暴是指大量从节点对同一主节点或者对同一台机器的多个主节点 短时间内发起全量复制的过程。复制风暴对发起复制的主节点或者机器造成大量开销,导致CPU、内存、带宽消耗。因此我们应该分析出复制风暴发生的场景,提前采用合理的方式规避。规避方式有如下几个。
1.单主节点复制风暴
  单主节点复制风暴一般发生在主节点挂载多个从节点的场景。当主节点 重启恢复后,从节点会发起全量复制流程,这时主节点就会为从节点创建 RDB快照,如果在快照创建完毕之前,有多个从节点都尝试与主节点进行全量同步,那么其他从节点将共享这份RDB快照。这点Redis做了优化,有效避免了创建多个快照。但是同时向多个从节点发送RDB快照,可能使主节点的网络带宽消耗严重,造成主节点的延迟变大,极端情况会发生主从节点连接断开,导致复制失败。 解决方案首先可以减少主节点(master)挂载从节点(slave)的数量, 或者采用树状复制结构,加入中间层从节点用来保护主节点,网络开销交给位于中间层的从节点,而不必消耗顶层的主节点。但是这种树状结构也带来了运维的复杂性,增加了手动和自动处理故障转移的难度。如图所示。
在这里插入图片描述
2.单机器复制风暴
  由于Redis的单线程架构,通常单台机器会部署多个Redis实例。当一台机器(machine)上同时部署多个主节点(master)时,如图所示。
在这里插入图片描述
  如果这台机器出现故障或网络长时间中断,当它重启恢复后,会有大量从节点(slave)针对这台机器的主节点进行全量复制,会造成当前机器网络带宽耗尽。

如何避免?方法如下:

  • 应该把主节点尽量分散在多台机器上,避免在单台机器上部署过多的主节点。
  • 当主节点所在机器故障后提供故障转移机制,避免机器恢复后进行密集的全量复制。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

孤独的偷学者

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值