redis高可用

Redis高可用涉及持久化、主从复制、哨兵和集群模式。持久化通过RDB和AOF保证数据安全;主从复制实现数据备份和简单故障恢复;哨兵模式提供自动故障转移;Redis集群通过数据分片和高可用机制扩展存储和处理能力。
摘要由CSDN通过智能技术生成

redis高可用介绍

  • 在web服务器中,高可用是指服务器可以正常访问的时间,衡量的标准是在多长时间内可以提供正常服务(99.9%、99.99%、99.999%等等)。
  • 但是在Redis语境中,高可用的含义似乎要宽泛一些,除了保证提供正常服务(如主从分离、快速容灾技术),还需要考虑数据容量的扩展、数据安全不会丢失等。
  • 在Redis中,实现高可用的技术主要包括持久化、主从复制、哨兵和Cluster集群,下面分别说明它们的作用,以及解决了什么样的问题。
    • 持久化:持久化是最简单的高可用方法(有时甚至不被归为高可用的手段),主要作用是数据备份,即将数据存储在硬盘,保证数据不会因进程退出而丢失。
    • 主从复制:主从复制是高可用Redis的基础,哨兵和集群都是在主从复制基础上实现高可用的。主从复制主要实现了数据的多机备份,以及对于读操作的负载均衡和简单的故障恢复。缺陷:故障恢复无法自动化:写操作无法负载均衡:存储能力受到单机的限制。
    • 哨兵:在主从复制的基础上,哨兵实现了自动化的故障恢复。缺陷:写操作无法负载均衡;存储能力受到单机的限制。
    • cluster集群:通过集群,Redis解决了写操作无负载均衡,以及存储能力受到单机限制的问题,实现了较为完善的高可用方案。

Redis持久化

持久化的功能:Redis是内存数据库,数据都是存储在内存中,为了避免服务器断电等原因导致Redis进程异常退出后数据的永久丢失,需要定期将Redis中的数据以某种形式(数据或命令)从内存保存到硬盘;当下次Redis重启时,利用持久化文件实现数据恢复。除此之外,为了进行灾难备份,可以将持久化文件拷贝到一个远程位置。

Redis提供两种方式进行持久化

  • RDB持久化:原理是将Reids在内存中的数据库记录定时保存到磁盘上。
  • AOF持久化(append only file):原理是将Reids的操作日志以追加的方式写入文件,类似于MysQL的binlog。

由于AOF持久化的实时性更好,即当进程意外退出时丢失的数据更少,因此AoF是目前主流的持久化方式,不过RDB持久化仍然有其用武之地。

RDB持久化

RDB持久化是指在指定的时间间隔内将内存中当前进程中的数据生成快照保存到硬盘(因此也称作快照持久化),用二进制压缩存储,保存的文件后缀是rdb;当Redis重新启动时,可以读取快照文件恢复数据。

触发条件
  • RDB持久化的触发分为手动触发和自动触发两种。
手动触发
  • save命令和bgsave命令都可以生成RDB文件。
  • save命令会阻塞Redis服务器进程,直到RDB文件创建完毕为止,在Redis服务器阻塞期间,服务器不能处理任何命令请求。
  • 而bgsave命令会创建一个子进程,由子进程来负责创建RDB文件,父进程(即Redis主进程)则继续处理请求。
    bgsave命令执行过程中,只有fork子进程时会阻塞服务器,而对于save命令,整个过程都会阻塞服务器,因此save已基本被废弃,线上环境要杜绝sa ve的使用。
自动触发
  • 在自动触发RDB持久化时,Redis也会选择bgsave而不是save来进行持久化。
  • save m n这年LR动触发最常见的情况是在配置文件中通过save mn,指定当m秒内发生n次变化时,会触发bgsave。
vim /etc/redis/6379.conf
--219行--以下三个save条件满足任意一个时,都会引起bgsave的调用

save 900 1#当时间到900秒时,如果redis数据发生了至少1次变化,则执行bgsave 

save 300 10#当时间到300秒时,如果redis数据发生了至少10次变化,则执行bgsave 

save 60 10000#当时间到60秒时,如果redis数据发生了至少10000次变化,则执行bgsave

--254行-- #指定RDB文件名
dbfilename dump.rdb
--264行-- #指定RDB文件和AOF文件所在目录
dir /var/lib/redis/6379
--242行-- #是否开启RDB文件压缩
rdbcompression yes
其他自动触发机制

除了save m n以外,还有一些其他情况会触发bgsave:

  • 在主从复制场景下,如果从节点执行全量复制操作,则主节点会执行bgsave命令,并将rdb文件发送给从节点。
  • 执行shutdown命令时,自动执行rdb持久化。
执行流程

img

(1)Redis父进程首先判断:当前是否在执行save,或bgsave/bgrewriteaof的子进程,如果在执行则bgsave命令直接返回。
注意:bgsave/bgrewriteaof的子进程不能同时执行,主要是基于性能方面的考虑:两个并发的子进程同时执行大量的磁盘写操作,可能引起严重的性能问题

(2)父进程执行fork操作创建子进程,这个过程中父进程是阻塞的,Redis不能执行来自客户端的任何命令

(3)父进程fork后,bgsave命令返回"Background saving started"信息并不再阻塞父进程,并可以响应其他命令

(4)子进程创建RDB文件,根据父进程内存快照生成临时快照文件,完成后对原有文件进行原子替换

(5)子进程发送信号给父进程表示完成,父进程更新统计信息

启动时加载

RDB文件的载入工作是在服务器启动时自动执行的,并没有专门的命令。但是由于A0F的优先级更高,因此当A0F开启时,Redis会优先载入AOF文件来恢复数据;只有当A0F关闭时,才会在Redis服务器启动时检测RDB文件,并自动载入。服务器载入RDB文件期间处于阻塞状态,直到载入完成为止。
Redis载入RDB文件时,会对RDB文件进行校验,如果文件损坏,则日志中会打印错误,Redis启动失败。

AOF 持久化

RDB持久化是将进程数据写入文件,而A0F持久化,则是将Redis执行的每次写、删除命令记录到单独的日志文件中,查询操作不会记录;当Redis重启时再次执行AOE文件中的命令来恢复数据。
与RDB相比,AOF的实时性更好,因此己成为主流的持久化方案。

开启AOF

Redis服务器默认开启RDB,关闭AOF;要开启AOF,需要在配置文件中配置:

vim/etc/redis/6379.conf
--700行--#修改,开启AOF 
appendonly yes
--704行--#指定AOF文件名称
appendfilename"appendonly.aof"
--796行--#是否忽略最后一条可能存在问题的指令
aof-load-truncated yes

/etc/init.d/redis_6379 restart  #重启服务

img

img

img

AOE的执行流程

由于需要记录Redis的每条写命令,因此A0F不需要触发,下面介绍A0F的执行流程。

  • 命令追加(append):将Redis的写命令追加到缓冲区aof buf;
  • 文件写入(write)和文件同步(sync):根据不同的同步策略将aof buf中的内容同步到硬盘;
  • 文件重写(rewrite):定期重写AoF文件,达到压缩的目的。
命令追加(append)

Redis先将写命令追加到缓冲区,而不是直接写入文件,主要是为了避免每次有写命令都直接写入硬盘,导致硬盘Io成为Redis负载的瓶颈。
命令追加的格式是Redis命令请求的协议格式,它是一种纯文本格式,具有兼容性好、可读性强、容易处理、操作简单避免二次开销等优点。在AOF文件中,除了用于指定数据库的select命令(如select 0为选中0号数据库)是由Redis添加的,其他都是客户端发送来的写命令。

文件写入(write)和文件同步(sync)

Redis提供了多种A0F缓存区的同步文件策略,策略涉及到操作系统的write函数和fsync函数,说明如下:
为了提高文件写入效率,在现代操作系统中,当用户调用write函数将数据写入文件时,操作系统通常会将数据暂存到一个内存缓冲区里,当缓冲区被填满或超过了指定时限后,才真正将缓冲区的数据写入到硬盘里。这样的操作虽然提高了效率,但也带来了安全问题:如果计算机停机,内存缓冲区中的数据会丢失;因此系统同时提供了fsync、fdatasync等同步函数,可以强制操作系统立刻将缓冲区中的数据写入到硬盘里,从而确保数据的安全性。

AoF缓存区的同步文件策略存在三种同步方式
vim/etc/redis/6379.conf
--729--
oappendfsync always:
命令写入aof buf后立即调用系统fsync操作同步到A0F文件,fsync完成后线程返回。这种情况下,每次有写命令都要同步到A0F文件,硬盘Io成为性能瓶颈,Redis只能支持大约几百TPS写入,严重降低了Redis的性能;即便是使用固态硬盘(SSD),每秒大约也只能处理几万个命令,而且会大大降低SsD的寿命。

appendfsync no:
命令写入aof buf后调用系统write操作,不对AOF文件做fsync同步;同步由操作系统负责,通常同步周期为30秒。这种情况下,文件同步的时间不可控,且缓冲区中堆积的数据会很多,数据安全性无法保证。

appendfsync everysec:
命令写入aof buf后调用系统write操作,write完成后线程返回;fsync同步文件操作由专门的线程每秒调用一次。everysec是前述两种策略的折中,是性能和数据安全性的平衡,因此是Redis的默认配置,也是我们推荐的配置。
文件重写(rewrite)

随着时间流逝,Redis服务器执行的写命令越来越多,A0F文件也会越来越大;过大的A0F文件不仅会影响服务器的正常运行,也会导致数据恢复需要的时间过长。

文件重写是指定期重写AOF文件,减小AOF文件的体积。需要注意的是,AoF重写是把Redis进程内的数据转化为写命令,同步到新的AOF文件;不会对旧的AOF文件进行任何读取、写入操作!

关于文件重写需要注意的另一点是:对于A0F持久化来说,文件重写虽然是强烈推荐的,但并不是必须的;即使没有文件重写,数据也可以被持久化并在Redis启动的时候导入;因此在一些现实中,会关闭自动的文件重写,然后通过定时任务在每天的某一时刻定时执行。

文件重写之所以能够压缩AOF文件,原因在于:

  • 过期的数据不再写入文件
  • 无效的命令不再写入文件:如有些数据被重复设值(set mykey v1,set mykey v2)、有些数据被删除了(set myset v1,del myset)等。
  • 多条命令可以合并为一个:如sadd myset v1,sadd myset v2,sadd myset v3可以合并为sadd myset vl v2 v3。

通过上述内容可以看出,由于重写后A0F执行的命令减少了,文件重写既可以减少文件占用的空间,也可以加快恢复速度。

文件重写的触发,分为手动触发和自动触发:

  • 手动触发:直接调用bgrewriteaof命令,该命令的执行与bgsave有些类似:都是fork子进程进行具体的工作,且都只有在fork时阻塞。
  • 自动触发:通过设置auto-aof-rewrite-min-size选项和auto-aof-rewrite-percentage选项来自动执行BGREWRITEAOF。

只有当auto-aof-rewrite-min-size和auto-aof-rewrite-percentage两个选项同时满足时,才会自动触发AoF重写,即bgrewriteaof操作。

vim/etc/redis/6379.conf
--729-
auto-aof-rewrite-percen PaLr.cao rcentage 100
#当前AoF文件大小(即aof_current size)是上次日志重写时A0F文件大小(aof base size)两倍时,发生BGREWRITEAOF操作

auto-aof-rewrite-min-size 64mb
#一当前AOE文件执行BGREWRITEAOE命令的最小值,避免刚开始启动Reids时由于文件尺寸较小导致频繁的BGREWRITEAOF

关于文件重写的流程,有两点需要特别注意:(1)重写由父进程fork子进程进行;(2)重写期间Redis执行的写命令,需要追加到新的A0E文件中,为此Redi引入了aof rewrite buf缓存。

文件重写的流程

img

(1)Redis父进程首先判断当前是否存在正在执行bgsave/bgrewriteaof的子进程,如果存在则bgrewriteaof命令直接返回,如果存在bgsave命令则等bgsave执行完成后再执行。

(2)父进程执行fork操作创建子进程,这个过程中父进程是阻塞的。
(3.1)父进程fork后,bqrewriteaof命令返回"Background append only file rewrite started"信息并不再阻塞父进程,并可以响应其他命令。Redis的所有写命令依然写到AOF缓冲区,并根据appendfsync策略同步到硬盘,保证原有AOF机制的正确。
(3.2)由于fork操作使用写时复制技术,子进程只能共享fork操作时的内存数据。由于父进程依然在响应命令,因此Redis使用Aor重写缓冲区(aof rewrite buf)保存这部分数据,防止新AOF文件生成期间丢失这部分数据。也就是说,bgrewriteaof执行期间,Redis的写命令同时追加到aof buf和a of rewirte buf两个缓冲区
(4)子进程根据内存快照,按照命令合并规则写入到新的AOF文件。
(5.1)子进程写完新的AOF文件后,向父进程发信号,父进程更新统计信息,具体可以通过info persistence查看。
(5.2)父进程把A0F重写缓冲区的数据写入到新的A0F文件,这样就保证了新AOF文件所保存的数据库状态和服务器当前状态一致。
(5.3)使用新的AOF文件替换老文件,完成AOF重写。

启动时加载

当A0F开启时,Redis启动时会优先载入AOF文件来恢复数据;只有当A0F关闭时,才会载入RDB文件恢复数据。
当A0F开启,但AOF文件不存在时,即使RDB文件存在也不会加载。
Redis载入AOF文件时,会对A0F文件进行校验,如果文件损坏,则日志中会打印错误,Redis启动失败。但如果是AOF文件结尾不完整(机器突然宕机等容易导致文件尾部不完整),且aof-load-truncated参数开启,则日志中会输出警告,Redis忽略掉AoF文件的尾部,启动成功。aof-load-truncated参数默认是开启的。

RDB和AOF的优缺点
  • RDB持久化
    • 优点:RDB文件紧凑,体积小,网络传输快,适合全量复制;恢复速度比A0F快很多。当然,与A0F相比,RDB最重要的优点之一是对性能的影响相对较
    • 缺点:RDB文件的致命缺点在于其数据快照的持久化方式决定了必然做不到实时持久化,而在数据越来越重要的今天,数据的大量丢失很多时候是无法接受的,因此AOF持久化成为主流。此外,RDB文件需要满足特定格式,兼容性差(如老版本的Redis不兼容新版本的RDB文件)。对于RDB持久化,一方面是bgsave在进行fork操作时Redis主进程会阻塞,另一方面,子进程向硬盘写数据也会带来Io压力。
  • AOF持久化
    • 与RDB持久化相对应,AOE的优点在于支持秒级持久化、兼容性好**,缺点**是文件大、恢复速度慢、对性能影响大。
    • 对于AOF持久化,向硬盘写数据的频率大大提高(everysec策略下为秒级),Io压力更大,甚至可能造成AOF追加阻塞问题。
    • AOF文件的重写与RDB的bgsave类似,会有fork时的阻塞和子进程的Io压力问题。相对来说,由于AOF向硬盘中写数据的频率更高,因此对Redis主进程性能的影响会更大
Redis 性能管理
#查看Redis内存使用方法
info memory #进入数据库查看
redis-cli info memory#外面查看

#内存碎片率
mem_fragmentation_ratio:    
#内存碎片率。mem_fragmentation_ratio=used_memory_rss/used_memory 

used memory rss:           #是Redis向操作系统申请的内存。
used memory:               #是Redis中的数据占用的内存
used_memory_peak;          #redis内存使用的峰值。

img

img

内存碎片如何产生的?
  • Redis内部有自己的内存管理器,为了提高内存使用的效率,来对内存的申请和释放进行管理。
  • Redis中的值删除的时候,并没有把内存直接释放,交还给操作系统,而是交给了Redis内部有内存管理器。
  • Redis中申请内存的时候,也是先看自己的内存管理器中是否有足够的内存可用。
  • Redis的这种机制,提高了内存的使用率,但是会使Redis中有部分自己没在用,却不释放的内存,导致了内存碎片的发生。
跟踪内存碎片率对理解Redis实例的资源性能是非常重要的
  • 内存碎片率在1到1.5之间是正常的,这个值表示内存碎片率比较低,也说明Redis没有发生内存交换。
  • 内存碎片率超过1.5,说明Redis消耗了实际需要物理内存的150%,其中50%是内存碎片率。
  • 内存碎片率低于1的,说明Redis内存分配超出了物理内存,操作系统正在进行内存交换。需要增加可用物理内存或减少Redis内存占用。
解决碎片率大的问题

如果你的Redis版本是4.0以下的,需要在redis-cli工具上输入shutdown save命令,让Redis 数据库执行保存操作并关闭Redis服务,再重启服务器。Redis服务器重启后,Redis会将没用的内存归还给操作系统,碎片率会降下来。

Redis4.0版本开始,可以在不重启的情况下,线上整理内存碎片。

config set activedefrag yes #自动碎片清理,内存就会自动清理了。
memory purge                #手动碎片清理
内存使用率

redis实例的内存使用率超过可用最大内存,操作系统将开始进行内存与swap空间交换。

避免内存交换发生的方法
  • 针对缓存数据大小选择安装Redis实例
  • 尽可能的使用Hash数据结构存储I
  • 设置key的过期时间
内回收key

内存清理策略,保证合理分配redis有限的内存资源。

当达到设置的最大阀值时,需选择一种key的回收策略,默认情况下回收策略是禁止删除。

配置文件中修改maxmemory-policy属性值:

vim/etc/redis/6379.conf
--598--
maxmemory-policy noenviction
volatile-iru:#使用LRU算法从己设置过期时间的数据集合中淘汰数据(移除最近最少使用的key,针对设置了TTL的key)
volatile-tt1:     #从己设置过期时间的数据集合中挑选即将过期的数据淘汰(移除最近过期的key)
volatile-random:  #从已设置过期时间的数据集合中随机挑选数据淘汰(在设置了TTL的key里随机移除)
allkeys-1ru:      #使用LRU算法从所有数据集合中淘汰数据(移除最少使用的key,针对所有的key)
allkeys-random:   #从数据集合中任意选择数据淘汰(随机移除key)
noenviction:      #禁止淘汰数据(不删除直到写满时报错)

Redis 主从复制

主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(Master),后者称为从节点(Slave);数据的复制是单向的,只能由主节点到从节点。

默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。

主从复制的作用

  • 数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
  • 故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
  • 负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
  • 高可用基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。

主从复制流程:

(1)若启动一个slave机器进程,则它会向Master机器发送一个“sync command”命令,请求同步连接。
(2)无论是第一次连接还是重新连接,Master机器都会启动一个后台进程,将数据快照保存到数据文件中(执行rdb操作),同时Master还会记录修改数据的所有命令并缓存在数据文件中。
(3)后台进程完成缓存操作之后,Master机器就会向slave机器发送数据文件,slave端机器将数据文件保存到硬盘上,然后将其加载到内存中,接着Master机器就会将修改数据的所有操作一并发送给Slave端机器。若Slave出现故障导致宕机,则恢复正常后会自动重新连接。
(4)Master机器收到slave端机器的连接后,将其完整的数据文件发送给slave端机器,如果Mater同时收到多个slave发来的同步请求,则Master会在后台启动一个进程以保存数据文件,然后将其发送给所有的slave端机器,确保所有的slave端机器都正常。

搭建redis主从复制

master 192.168.239.10
slave1 192.168.239.20
slave2 192.168.239.30
初始化环境
#关闭防火墙
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

img

所有服务器安装redis
yum install -y gcc gcc-c++ make           #安装依赖包环境
cd /opt
tar -zxvf redis-5.0.7.tar.gz              #解压软件报
cd redis-5.0.7/                           #进入目录
make                                      #编译
make PREFIX=/usr/local/redis install      #指定安装目录去安装
cd utils/
./install_server.sh
一路回车
Please select the redis executable path[/usr/local/bin/redis-server]/usr/local/redis/bin/redis-server
#需要手动修改为/usr/local/redis/bin/redis-server,注意要一次性正确输入
Port           : 6379                              #默认监听端口为6397
Config file    : /etc/redis/6379.conf              #配置文件路劲
Log file       : /var/log/redis_6379.log           #日志文件路劲
Data dir       : /var/lib/redis/6379               #数据文件路劲
Executable     : /usr/local/redis/bin/redis-server #可执行文件路劲
Cli Executable : /usr/local/redis/bin/redis-cli    #客户端命令工具
   
#把redis的可执行程序文件放入路径环境变量的目录中便于系统识别
ln -s /usr/local/redis/bin/* /usr/local/bin/
#当installserver.sh 脚本运行完毕,Redis服务就已经启动,默认监听端口为6379

img

img

img

img

img

img

img

img

修改Redis配置文件(Master节点操作)
vim/etc/redis/6379.conf
bind 0.0.0.0      #70行,修改监听地址为0.0.0.0
daemontze yes     #137行,开启守护进程
logfile/var/log/redis_6379.1og   #172行,指定日志文件目录
dir/var/lib/redis/6379           #264行,指定工作目录
appendonly yes                   #700行,开启AOF持久化功能
/etc/init.d/redis_6379 restart

img

img

img

img

img

img

修改Redis配置文件(slave节点操作)

slave节点配置与master节点类似这里我直接用scp命令进行远程传输后进行修改

vim /etc/redis/6379.conf 

bind 0.0.0.0         #70行,修改监听地址为0.0.0.0
daemonize yes        #137行,开启守护进程
logfile/var/log/redis 6379.1og    #172行,指定日志文件目录
dir/var/lib/redis/6379            #264行,指定工作目录
replicaof 192.168.239.10 6379#288行,指定要同步的Master节点IP和端口
appendonly yes     #700行,开启AOF持久化功能
/etc/init.d/redis_6379 restart

img

进入两台slave服务器进行修改

vim /etc/redis/6379.conf 
replicaof 192.168.239.10 6379#288行,指定要同步的Master节点IP和端口
/etc/init.d/redis_6379 restart

img

img

验证主从效果

在Master节点上看日志

tail -n -20 /var/log/redis_6379.log
Replica 192.168.239.20:6379 asks for synchronization
Replica 192.168.239.30:6379 asks for synchronization

img

img

在Master节点上验证从节点

redis-cli info replication
connected_slaves:2
slave0:ip=192.168.239.20,port=6379,state=online,offset=2870,lag=1
slave1:ip=192.168.239.30,port=6379,state=online,offset=2870,lag=0

img

Redis哨兵模式

主从切换技术的方法是:当服务器宕机后,需要手动一台从机切换为主机,这需要人工干预,不仅费时费力而且还会造成一段时间内服务不可用。为了解决主从复制的缺点,就有了哨兵机制。

哨兵的核心功能:在主从复制的基础上,哨兵引入了主节点的自动故障转移。

哨兵模式的作用

  • 监控:哨兵会不断地检查主节点和从节点是否运作正常。
  • 自动故障转移:当主节点不能正常工作时,哨兵会开始自动故障转移操作,它会将失效主节点的其中一个从节点升级为新的主节点,并让其它从节点改为复制新的主节点。
  • 通知(提醒):哨兵可以将故障转移的结果发送给客户端。

哨兵结构由两部分组成,哨兵节点和数据节点

  • 哨兵节点:哨兵系统由一个或多个哨兵节点组成,哨兵节点是特殊的redis节点,不存储数据。
  • 数据节点:主节点和从节点都是数据节点。

img

故障转移机制

  • 由哨兵节点定期监控发现主节点是否出现了故障
    每个哨兵节点每隔1秒会向主节点、从节点及其它哨兵节点发送一次ping命令做一次心跳检测。如果主节点在一定时间范围内不回复或者是回复一个错误消息,那么这个哨兵就会认为这个主节点主观下线了(单方面的)。当超过半数哨兵节点认为该主节点主观下线了,这样就客观下线了。
  • .当主节点出现故障,此时哨兵节点会通过Raft算法(选举算法)实现选举机制共同选举出一个哨兵节点为leader,来负责处理主节点的故障转移和通知。所以整个运行哨兵的集群的数量不得少于3个节点。
  • 由leader哨兵节点执行故障转移,过程如下:
    • 将某一个从节点升级为新的主节点,让其它从节点指向新的主节点;
    • 若原主节点恢复也变成从节点,并指向新的主节点;
    • 通知客户端主节点已经更换。

需要特别注意的是,客观下线是主节点才有的概念;如果从节点和哨兵节点发生故障,被哨兵主观下线后,不会再有后续的客观下线和故障转移操作

主节点的选举

  • 过滤掉不健康的(己下线的),没有回复哨兵ping响应的从节点。
  • 选择配置文件中从节点优先级配置最高的。(replica-priority,默认值为100)
  • 选择复制偏移量最大,也就是复制最完整的从节点。

哨兵的启动依赖于主从模式,所以须把主从模式安装好的情况下再去做哨兵模式

搭建redis哨兵模式

master 192.168.239.10
slave1 192.168.239.20
slave2 192.168.239.30
sentinel-1: 1992.168.239.40
sentinel-2: 1992.168.239.50
sentinel-3: 1992.168.239.60
所有哨兵服务器安装好redis服务
修改任意一台sentinel哨兵模式配置文件
vim /opt/redis-5.0.7/sentinel.conf

protected-mode no                  #17行,关闭保护模式
port 26379                         #21行,Redis哨兵默认的监听端口
daemonize yes                      #26行,指定sentine1为后台启动
logfile"/var/log/sentinel.log"     #36行,指定日志存放路径
dir"/var/lib/redis/6379"           #65行,指定数据库存放路径
sentinel monitor mymaster 192.168.239.10 6379 2
#84行,修改指定该哨兵节点监控192.168.239.10:6379这个主节点,该主节点的名称是mymaster,最后的2的含义与主节点的故障判定有关:至少需要2个哨兵节点同意,才能判定主节点故障并进行故障转移
sentinel down-after-milliseconds mymaster 3000
#113行,判定服务器down掉的时间周期,默认30000毫秒(30秒)
sentinel failover-timeout mymaster 180000
#146行,同一个sentine1对同一个master两次failover之间的间隔时间(180秒)

#远程传续将配置文件传输给其他哨兵服务器
scp /opt/redis-5.0.7/sentinel.conf 192.168.239.50:/opt/redis-5.0.7/
scp /opt/redis-5.0.7/sentinel.conf 192.168.239.60:/opt/redis-5.0.7/

img

img

img

img

img

img

img

启动哨兵模式
#所有哨兵服务器执行
cd /opt/redis-5.0.7/
redis-sentinel sentinel.conf &

img

查看哨兵消息
redis-cli -p 26379 info sentinel
# Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=mymaster,status=ok,address=192.168.239.10:6379,slaves=2,sentinels=3
[1]+  完成                  redis-sentinel sentinel.conf

img

故障模拟
#在master节点查看redis-server进程号
ps -ef | grep redis

#杀死master节点redis-server进程
kill -9 21981

img

验证结果

验证master是否转换至从服务器

tail -f /var/log/sentinel.log

img

在哨兵上查看是否转换成功

redis-cli -p 26379 info sentinel

img

故障恢复
rm -rf /var/run/redis_6379.pid  #删除pid文件如果pid文件不删除则服务起不来
/etc/init.d/redis_6379 start  #启动服务
netstat -natp |grep 6379  
#主服务器查看
redis-cli info replication

img

img

img

Redis 群集模式

集群,即Redis cluster,是Redis3.0开始引入的分布式存储方案。

集群由多个节点(Node)组成,Redis的数据分布在这些节点中。集群中的节点分为主节点和从节点:只有主节点负责读写请求和集群信息的维护;从节点只进行主节点数据和状态信息的复制。

集群的作用,可以归纳为两点

(1)数据分区:数据分区(或称数据分片)是集群最核心的功能。
集群将数据分散到多个节点,一方面突破了Redis单机内存大小的限制,存储容量大大增加;另一方面每个主节点都可以对外提供读服务和写服务,大大提高了集群的响应能力。
Redis单机内存大小受限问题,在介绍持久化和主从复制时都有提及;例如,如果单机内存太大,bgsave和bgrewriteaof的fork操作可能导致主进程阻塞,主从环境下主机切换时可能导致从节点长时间无法提供服务,全量复制阶段主节点的复制缓冲区可能溢出。

(2)高可用:集群支持主从复制和主节点的自动故障转移(与哨兵类似);当任一节点发生故障时,集群仍然可以对外提供服务。

Redis集群的数据分片

  • Redis集群引入了哈希槽的概念
  • Redis集群有16384个哈希槽(编号0-16383)
  • 集群的每个节点负责一部分哈希槽
  • 每个Key通过CRC16校验后对16384取余来决定放置哪个哈希槽,通过这个值,去找到对应的插槽所对应的节点,然后直接自动跳转到这个对应的节点上进行存取操作

以3个节点组成的集群为例

  • 节点A包含0到5460号哈希槽
  • 节点B包含5461到10922号哈希槽
  • 节点c包含10923到16383号哈希槽

img

搭建Redis 群集模式

redis的集群一般需要6个节点,3主3从。

服务器类型系统和IP地址需要安装的组件
master1192.168.239.10redis-5.0.7.tar.gz
master2192.168.239.20redis-5.0.7.tar.gz
master3192.168.239.30redis-5.0.7.tar.gz
slave1192.168.239.40redis-5.0.7.tar.gz
slave2192.168.239.50redis-5.0.7.tar.gz
slave3192.168.239.60redis-5.0.7.tar.gz
初始化环境
#关闭防火墙
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
开启集群功能
修改任意一台服务器配置文件
vim /opt/redis-5.0.7/redis.conf

bind 192.168.239.10                       #69行,注释掉bind项,改为自己
protected-mode no                         #88行,修改,关闭保护模式
port 6379                                 #92行redis默认监听端口,
daemonize yes                             #136行,开启守护进程,以独立进程启动
cluster-enabled yes                       #832行,取消注释,开启群集功能
cluster-config-file nodes-6001.conf       #840行,取消注释,群集名称文件设置
cluster-node-timeout 15000                #846行,取消注释群集超时时间设置
appendonly yes                            #700行,修改,开启AOF持久化
#远程传输完要修改监听地址为自己
scp /opt/redis-5.0.7/redis.conf 192.168.239.20:/opt/redis-5.0.7/
scp /opt/redis-5.0.7/redis.conf 192.168.239.30:/opt/redis-5.0.7/
scp /opt/redis-5.0.7/redis.conf 192.168.239.40:/opt/redis-5.0.7/
scp /opt/redis-5.0.7/redis.conf 192.168.239.50:/opt/redis-5.0.7/
scp /opt/redis-5.0.7/redis.conf 192.168.239.60:/opt/redis-5.0.7/

img

img

img

img

img

img

img

修改其他节点给服务器配置文件监控地址

img

img

img

img

img

启动redis节点

所有节点执行

cd /opt/redis-5.0.7/
redis-server redis.conf   #启动redis节点

img

启动集群
redis-cli --cluster create 192.168.239.20:6379 192.168.239.30:6379 192.168.239.10:6379 192.168.239.40:6379 192.168.239.50:6379 192.168.239.60:6379 --cluster-replicas 1
#六个示例分为三组,每组一主一从,前面的做主节点后面的做从节点下面交互的时候需要输入yes才可以创建 --replicas 1表示每个主节点有一个从节点

img

img

测试群集
redis-cli -h 192.168.239.10 -p 6379 -c           #加-c参数,节点之间可以互相跳转
192.168.239.10:6379> cluster slots               #查看节点哈希槽编号范围
1) 1) (integer) 5461
   2) (integer) 10922                            #哈希槽编号范围
   3) 1) "192.168.239.30"  
      2) (integer) 6379                          #主节点ip和端口
      3) "093fd0ff72272a5b3c91b01fbcc106184971b818"
   4) 1) "192.168.239.60" 
      2) (integer) 6379                          #从节点ip和端口
      3) "97b3832b9be3df6455f3ba34269a92ee07bd46e3"
2) 1) (integer) 0
   2) (integer) 5460
   3) 1) "192.168.239.20"
      2) (integer) 6379
      3) "03523dfb1c9efd1da17f9380e94276c171ef2041"
   4) 1) "192.168.239.50"
      2) (integer) 6379
      3) "33bb54b95acfcb61960317f3eaaf19f74fd5cafa"
3) 1) (integer) 10923
   2) (integer) 16383
   3) 1) "192.168.239.10"
      2) (integer) 6379
      3) "a0515c00438a99c928e16bd0ec704013e74cc2e7"
   4) 1) "192.168.239.40"
      2) (integer) 6379
      3) "efbb3e371167be32d67462e496ba538ee94fad07"
SQL 复制 全屏

img

 3) "093fd0ff72272a5b3c91b01fbcc106184971b818"
    1. “192.168.239.60”
    2. (integer) 6379 #从节点ip和端口
    3. “97b3832b9be3df6455f3ba34269a92ee07bd46e3”
    1. (integer) 0
    2. (integer) 5460
      1. “192.168.239.20”
      2. (integer) 6379
      3. “03523dfb1c9efd1da17f9380e94276c171ef2041”
      1. “192.168.239.50”
      2. (integer) 6379
      3. “33bb54b95acfcb61960317f3eaaf19f74fd5cafa”
    1. (integer) 10923
    2. (integer) 16383
      1. “192.168.239.10”
      2. (integer) 6379
      3. “a0515c00438a99c928e16bd0ec704013e74cc2e7”
      1. “192.168.239.40”
      2. (integer) 6379
      3. “efbb3e371167be32d67462e496ba538ee94fad07”
        SQL 复制 全屏

[外链图片转存中...(img-uD6XdSCY-1656228194600)]

![img](https://img-blog.csdnimg.cn/img_convert/ef84f302f4b4c69b8fd0f8c4ddd7f291.png)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值