redis系列——企业级持久化方案(四)

一、基本介绍

        我们知道对于一个企业级的redis架构来说,持久化是不可减少的。持久化主要是做灾难恢复,数据恢复,也可以归类到高可用的一个环节里面去。比如你redis整个挂了,然后redis就不可用了,你要做的事情是让redis变得可用,尽快变得可用。重启redis,尽快让它对外提供服务,但是就像上一讲说,如果你没做数据备份,这个时候redis启动了,也不可用啊,数据都没了。很可能说,大量的请求过来,缓存全部无法命中,在redis里根本找不到数据,这个时候就死定了,缓存雪崩问题,所有请求,没有在redis命中,就会去mysql数据库这种数据源头中去找,一下子mysql承接高并发,然后就挂了。mysql挂掉,你都没法去找数据恢复到redis里面去,redis的数据从哪儿来?从mysql来。。。

        如果你把redis的持久化做好,备份和恢复方案做到企业级的程度,那么即使你的redis故障了,也可以通过备份数据,快速恢复,一旦恢复立即对外提供服务。

1、RDB持久化

        RDB方式的持久化是通过快照(snapshotting)完成的,当符合一定条件时Redis会自动将内存中的数据进行快照并持久化到硬盘。RDB是Redis默认采用的持久化方式。Redis启动后会读取RDB快照文件,将数据从硬盘载入到内存。根据数据量大小与结构和服务器性能不同,这个时间也不同。通常将记录一千万个字符串类型键、大小为1GB的快照文件载入到内存中需要花费20~30秒钟。

1.持久化条件配置

在redis.conf中修改持久化快照的条件,如下:

说明:

  • save 开头的一行就是持久化配置,可以配置多个条件(每行配置一个条件),每个条件之间是“或”的关系。
  • “save 900 1”表示15分钟(900秒钟)内至少1个键被更改则进行快照。
  • “save 300 10”表示5分钟(300秒)内至少10个键被更改则进行快照。
  • 也可以手动调用save或者bgsave命令,同步或异步执行rdb快照生成。

2.持久化文件存储

        在redis.conf中可以指定持久化文件存储的目录

  • 配置dir指定rdb快照文件的位置;
  • 设置dbfilename指定rdb快照文件的名称;

在执行RDB持久化工作时,redis根据配置自己fork一个子进程出来,子进程尝试将数据dump到临时的rdb快照文件中,完成rdb快照文件的生成之后,就替换之前的旧的快照文件。即每次生成一个新的快照,都会覆盖之前的老快照

3.优缺点分析

优点:

  • RDB会生成多个数据文件,每个数据文件都代表了某一个时刻完整的数据快照,这种多个数据文件的方式,非常适合做冷备,可以将这种完整的数据文件发送到一些远程的安全存储上去,比如说Amazon的S3云服务上去,在国内可以是阿里云的ODPS分布式存储上,以预定好的备份策略来定期备份redis中的数据。当然AOF也可以做冷备,只有一个文件,但是你可以,每隔一定时间,去copy一份这个文件出来,比较麻烦。
  • RDB对redis对外提供的读写服务,影响非常小,可以让redis保持高性能,因为redis主进程只需要fork一个子进程,让子进程执行磁盘IO操作来进行RDB持久化即可
  • 相对于AOF持久化机制来说,直接基于RDB数据文件来重启和恢复redis进程,更加快速。AOF,存放的指令日志,做数据恢复的时候,其实是要回放和执行所有的指令日志,来恢复出来内存中的所有数据的。RDB,就是一份数据文件,恢复的时候,直接加载到内存中即可。

结合上述优点,RDB特别适合做冷备份,冷备。

缺点:

  • 如果想要在redis故障时,尽可能少的丢失数据,那么RDB没有AOF好。一般来说,RDB数据快照文件,都是每隔5分钟,或者更长时间生成一次,这个时候就得接受一旦redis进程宕机,那么会丢失最近5分钟的数据。这个问题,也是rdb最大的缺点,就是不适合做第一优先的恢复方案,如果你依赖RDB做第一优先恢复方案,会导致数据丢失的比较多。
  • RDB每次在fork子进程来执行RDB快照数据文件生成的时候,如果数据文件特别大,可能会导致对客户端提供的服务暂停数毫秒,或者甚至数秒。一般不要让RDB的间隔太长,否则每次生成的RDB文件太大了,对redis本身的性能可能会有影响的。

4.数据实验

        我们首先在redis中保存几条数据

[root@redis_01 bin]# ./redis-cli
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> set k2 v2
OK
127.0.0.1:6379> set k3 v3
OK
127.0.0.1:6379> get k1
"v1"
127.0.0.1:6379> exit

立即停掉redis进程,然后重启redis

[root@redis_01 bin]# ./redis-cli SHUTDOWN
[root@redis_01 bin]# ps -ef | grep redis
root      11101  10813  0 11:02 pts/0    00:00:00 grep --color=auto redis
[root@redis_01 bin]# /etc/init.d/./redis_6379 start
Starting Redis server...

下面我们看看刚才插入的数据还在不在

127.0.0.1:6379> get k1
"v1"

数据还在,为什么?这里要注意,通过redis-cli SHUTDOWN这种方式去停掉redis,其实是一种安全退出的模式,redis在退出的时候会将内存中的数据立即生成一份完整的rdb快照。我们可以看一下(不能直接看懂)

[root@redis_01 bin]# cat /var/redis/6379/dump.rdb 
REDIS0007   redis-ver3.2.8
þ?v2k3v3k1v1kkvvÿ8,ޞl

在redis中再保存几条新的数据,用kill -9粗暴杀死redis进程,模拟redis故障异常退出,导致内存数据丢失的场景

127.0.0.1:6379> get k1
"v1"
127.0.0.1:6379> set k4 v4
OK
127.0.0.1:6379> set k5 v5
OK
127.0.0.1:6379> exit
[root@redis_01 bin]# ps -ef|grep redis
root      11131      1  0 11:04 ?        00:00:00 /usr/local/software/redis/bin/redis-server 127.0.0.1:6379
root      11150  10813  0 11:09 pts/0    00:00:00 grep --color=auto redis
[root@redis_01 bin]# kill -9 11131

然后我们再来重启redis服务器

[root@redis_01 bin]# /etc/init.d/./redis_6379 start
/var/run/redis_6379.pid exists, process is already running or crashed
[root@redis_01 bin]# rm -rf /var/run/redis_6379.pid 
[root@redis_01 bin]# /etc/init.d/./redis_6379 start
Starting Redis server...

这次就发现,redis进程异常被杀掉,数据没有进dump文件,几条最新的数据就丢失了

[root@redis_01 bin]# ./redis-cli
127.0.0.1:6379> get k4
(nil)
127.0.0.1:6379> get k5
(nil)
127.0.0.1:6379> get k3
"v3"

现在我们手动设置一个save检查点(记得重启一下生效,试验完记得注释掉,太频繁了)

写入几条数据,等待5秒钟,会发现自动进行了一次dump rdb快照,在dump.rdb中发现了数据

127.0.0.1:6379> set k4 v4
OK
127.0.0.1:6379> set k5 v5
OK
127.0.0.1:6379> exit
[root@redis_01 bin]# cat /var/redis/6379/dump.rdb
REDIS0007   redis-ver3.2.8
redis-bits????e5used-mem0
                       ??k5v5k3v3kkvvk4v4k1v1k2v2??7????

2、AOF持久化

1.持久化条件配置

        Redis默认是不使用该方式持久化的。Aof方式的持久化,是操作一次redis数据库,则将操作的记录(日志)存储到aof持久化文件中。如果我们要开启aof方式的持久化方案,需要将redis.conf中的appendonly改为yes。

在生产环境里面,一般来说AOF都是要打开的,除非你说随便丢个几分钟的数据也无所谓。其中AOF文件存放的是每条写命令,所以会不断的膨胀,当大到一定的时候,AOF做rewrite操作。AOF 的rewrite操作就会基于当时redis内存中的数据重新构造一个更小的AOF文件,然后将旧的膨胀的很大的文件给删除了。这里注意一点,AOF并不是一点数据都不会丢失。在现代操作系统中,写文件并不是直接写入磁盘,而是先写入os cache,然后到一定时间再从os cache执行fsync写到磁盘文件。

这样在redis重启的时候,就可以通过回放AOF日志中的写入指令来重新构建整个数据集了。可以配置AOF的fsync策略,有三种策略可以选择,一种是每次写入一条数据就执行一次fsync;一种是每隔一秒执行一次fsync;一种是不主动执行fsync。

  • always:每次写入一条数据,立即将这个数据对应的写日志fsync到磁盘上去,性能非常非常差,吞吐量很低; 确保说redis里的数据一条都不丢,那就只能这样了(mysql中由于需要大量磁盘操作,单机情况下QPS一般一两k。对于redis来说,上万QPS没问题,但设置成always也就和mysql差不多了);
  • everysec:每秒将os cache中的数据fsync到磁盘,这个最常用的,生产环境一般都这么配置,性能很高,QPS还是可以上万的;
  • no: 仅仅redis负责将数据写入os cache就撒手不管了,然后后面os自己会时不时有自己的策略将数据刷入磁盘,不可控了。

2.持久化文件存储

         Aof文件存储的目录和rdb方式的一样。Aof文件存储的名称为:

我们知道redis中的数据其实有限的,很多数据可能会自动过期,可能会被用户删除,可能会被redis用缓存清除的算法清理掉。redis中的数据会不断淘汰掉旧的,就一部分常用的数据会被自动保留在redis内存中。所以可能很多之前的已经被清理掉的数据,对应的写日志还停留在AOF中,AOF日志文件就一个,会不断的膨胀,到很大很大。

所以AOF会自动在后台每隔一定时间做rewrite操作,比如日志里已经存放了针对100w数据的写日志了;redis内存只剩下10万;基于内存中当前的10万数据构建一套最新的日志,到AOF中,覆盖之前的老日志,确保AOF日志文件不会过大,保持跟redis内存数据量一致。在redis.conf中,可以配置rewrite策略:

auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb

说明:比如说上一次AOF rewrite之后,是128mb;然后就会接着128mb继续写AOF的日志,如果发现增长的比例,超过了之前的100%,256mb,就可能会去触发一次rewrite;但是此时还要去跟min-size,64mb去比较,256mb > 64mb,才会去触发rewrite。

3.AOF的rewrite过程

  1. redis fork一个子进程
  2. 子进程基于当前内存中的数据,构建日志,开始往一个新的临时的AOF文件中写入日志
  3. redis主进程,接收到client新的写操作之后,在内存中写入日志,同时新的日志也继续写入旧的AOF文件
  4. 子进程写完新的日志文件之后,redis主进程将内存中的新日志再次追加到新的AOF文件中
  5. 用新的日志文件替换掉旧的日志文件

注意:redis 2.4之前,还需要手动,开发一些脚本,crontab,通过BGREWRITEAOF命令去执行AOF rewrite,但是redis 2.4之后,会自动进行rewrite操作。

4.优缺点分析

优点:

  • AOF可以更好的保护数据不丢失,一般AOF会每隔1秒,通过一个后台线程执行一次fsync操作,最多丢失1秒钟的数据。每隔1秒,就执行一次fsync操作,保证os cache中的数据写入磁盘中。
  • AOF日志文件以append-only模式写入,所以没有任何磁盘寻址的开销,写入性能非常高,而且文件不容易破损,即使文件尾部破损,也很容易修复。
  • AOF日志文件即使过大的时候,出现后台重写操作,也不会影响客户端的读写。因为在rewrite log的时候,会对其中的指令进行压缩,创建出一份需要恢复数据的最小日志出来。在创建新日志文件的时候,老的日志文件还是照常写入。当新的merge后的日志文件ready的时候,再交换新老日志文件即可。
  • AOF日志文件的命令通过非常可读的方式进行记录,这个特性非常适合做灾难性的误删除的紧急恢复。比如某人不小心用flushall命令清空了所有数据,只要这个时候后台rewrite还没有发生,那么就可以立即拷贝AOF文件,将最后一条flushall命令给删了,然后再将该AOF文件放回去,就可以通过恢复机制,自动恢复所有数据。

缺点:

  • 对于同一份数据来说,AOF日志文件通常比RDB数据快照文件更大
  • AOF开启后,支持的写QPS会比RDB支持的写QPS低,因为AOF一般会配置成每秒fsync一次日志文件,当然,每秒一次fsync,性能也还是很高的。如果你要保证一条数据都不丢,也是可以的,AOF的fsync设置成每写入一条数据,fsync一次,那就完蛋了,redis的QPS大降。
  • 以前AOF发生过bug,就是通过AOF记录的日志,进行数据恢复的时候,没有恢复一模一样的数据出来。所以说,类似AOF这种较为复杂的基于命令日志/merge/回放的方式,比基于RDB每次持久化一份完整的数据快照文件的方式,更加脆弱一些,容易有bug。不过AOF就是为了避免rewrite过程导致的bug,因此每次rewrite并不是基于旧的指令日志进行merge的,而是基于当时内存中的数据进行指令的重新构建,这样健壮性会好很多。
  • 唯一的比较大的缺点,其实就是做数据恢复的时候,会比较慢,还有做冷备,定期的备份,不太方便,可能要自己手写复杂的脚本去做,做冷备不太合适

5.数据实验

        我们在上面实验发现先仅仅打开RDB,写入一些数据,然后kill -9杀掉redis进程,接着重启redis,发现数据没了,因为RDB快照还没生成。现在我们打开AOF的开关,启用AOF持久化。然后再写入一些数据,观察AOF文件中的日志内容

[root@redis_01 bin]# cat /var/redis/6379/appendonly.aof 
*2
$6
SELECT
$1
0
*3
$3
set
$2
k1
$2
v1
*3
$3
set
$2
k2
$2
v2

其实你在appendonly.aof文件中,可以看到刚写的日志,它们其实就是先写入os cache的,然后1秒后才fsync到磁盘中,只有fsync到磁盘中了,才是安全的,要不然光是在os cache中,机器只要重启,就什么都没了。kill -9杀掉redis进程,重新启动redis进程,发现数据被恢复回来了,就是从AOF文件中恢复回来的。

如果redis在append数据到AOF文件时,机器宕机了,可能会导致AOF文件破损。用redis-check-aof --fix命令来修复破损的AOF文件,比如现在我们把最后两行删了,然后执行恢复

[root@redis_01 src]# pwd
/usr/local/software/redis-3.2.8/src
[root@redis_01 src]# ./redis-check-aof --fix /var/redis/6379/appendonly.aof 
AOF analyzed: size=102, ok_up_to=81, diff=21
This will shrink the AOF from 102 bytes, with 21 bytes, to 81 bytes
Continue? [y/N]: y
Successfully truncated AOF

二、企业级的持久化的配置策略

        在企业中不要仅仅使用RDB,因为那样会导致你丢失很多数据。也不要仅仅使用AOF,因为那样有两个问题,第一,你通过AOF做冷备,没有RDB做冷备,来的恢复速度更快;第二,RDB每次简单粗暴生成数据快照,更加健壮,可以避免AOF这种复杂的备份和恢复机制的bug。

        综合使用AOF和RDB两种持久化机制,用AOF来保证数据不丢失,作为数据恢复的第一选择用RDB来做不同程度的冷备,在AOF文件都丢失或损坏不可用的时候,还可以使用RDB来进行快速的数据恢复。

        如果RDB在执行snapshotting操作,那么redis不会执行AOF rewrite;如果redis再执行AOF rewrite,那么就不会执行RDB snapshotting。如果RDB在执行snapshotting,此时用户执行BGREWRITEAOF命令,那么等RDB快照生成之后,才会去执行AOF rewrite。

        同时有RDB snapshot文件和AOF日志文件,那么redis重启的时候,会优先使用AOF进行数据恢复,因为其中的日志更完整。

1、RDB的生成策略

        在企业中,RDB的生成策略,用默认的也差不多

save 60 10000

如果你希望尽可能确保说,RDB最多丢1分钟的数据,那么尽量就是每隔1分钟都生成一个快照。不过到底是10000条执行一次RDB,还是1000条执行一次RDB,这个根据需要根据自己的应用和业务的数据量来确定。

2、AOF的生成策略

        AOF一定要打开,fsync方式选择everysec。一般可能会调整的参数可能就是下面俩参数了

auto-aof-rewrite-percentage 100

就是当前AOF大小膨胀到超过上次100%,上次的两倍。

auto-aof-rewrite-min-size 64mb

根据自己的数据量来定,16mb,32mb。

三、企业级的数据备份方案

        RDB非常适合做冷备,每次生成之后,就不会再有修改了。我们可以写crontab定时调度脚本去做数据备份。每小时都copy一份rdb的备份,到一个目录中去,仅仅保留最近48小时的备份

crontab -e
​
0 * * * * sh /usr/local/redis/copy/redis_rdb_copy_hourly.sh

redis_rdb_copy_hourly.sh

#!/bin/sh 
​
cur_date=`date +%Y%m%d%k`
rm -rf /usr/local/redis/snapshotting/$cur_date
mkdir /usr/local/redis/snapshotting/$cur_date
cp /var/redis/6379/dump.rdb /usr/local/redis/snapshotting/$cur_date
​
del_date=`date -d -48hour +%Y%m%d%k`
rm -rf /usr/local/redis/snapshotting/$del_date

每天都保留一份当日的rdb的备份,到一个目录中去,仅仅保留最近1个月的备份

crontab -e
​
0 0 * * * sh /usr/local/redis/copy/redis_rdb_copy_daily.sh
​
redis_rdb_copy_daily.sh

redis_rdb_copy_daily.sh

#!/bin/sh 
​
cur_date=`date +%Y%m%d`
rm -rf /usr/local/redis/snapshotting/$cur_date
mkdir /usr/local/redis/snapshotting/$cur_date
cp /var/redis/6379/dump.rdb /usr/local/redis/snapshotting/$cur_date
​
del_date=`date -d -1month +%Y%m%d`
rm -rf /usr/local/redis/snapshotting/$del_date

每次copy备份的时候,都把太旧的备份给删了。最后每天晚上将当前服务器上所有的数据备份,发送一份到远程的云服务上去。

四、数据恢复方案

  • 如果是redis进程挂掉,那么重启redis进程即可,直接基于AOF日志文件恢复数据

        这里不演示了,在AOF数据恢复那一块,演示过了,fsync everysec,最多就丢一秒的数。

  • 如果是redis进程所在机器挂掉,那么重启机器后,尝试重启redis进程,尝试直接基于AOF日志文件进行数据恢复

        AOF没有破损,也是可以直接基于AOF恢复的。如果AOF文件破损,那么用redis-check-aof fix。

  • 如果redis当前最新的AOF和RDB文件出现了丢失/损坏,那么可以尝试基于该机器上当前的某个最新的RDB数据副本进行数据恢复

        当前最新的AOF和RDB文件都出现了丢失/损坏到无法恢复,一般不是机器的故障,而是人为造成的。比如我们把/var/redis/6379下的文件给删除了,找到RDB最新的一份备份,小时级的备份可以了,小时级的肯定是最新的,copy到redis里面去,就可以恢复到某一个小时的数据。

        但是当我们拷贝到redis上重启后发现没有数据,因为优先用appendonly.aof去恢复数据,我们发现redis自动生成的appendonly.aof是没有数据的。redis启动的时候,自动重新基于内存的数据,生成了一份最新的rdb快照,直接用空的数据,覆盖掉了我们有数据的(拷贝过去的那份dump.rdb)。

        然后再次停止redis,先删除appendonly.aof,然后将我们的dump.rdb拷贝过去,然后再重启redis,然后又没有数据!很简单,就是虽然你删除了appendonly.aof,但是因为打开了aof持久化,redis就一定会优先基于aof去恢复,即使文件不在,那就创建一个新的空的aof文件。

        停止redis,暂时在配置中关闭aof,然后拷贝一份rdb过来,再重启redis,数据能不能恢复过来,可以恢复过来。脑子一热,再关掉redis,手动修改配置文件,打开aof,再重启redis,数据又没了,空的aof文件,所有数据又没了!在数据安全丢失的情况下,基于rdb冷备,如何完美的恢复数据,同时还保持aof和rdb的双开?

        停止redis,关闭aof,拷贝rdb备份,重启redis,确认数据恢复,直接在命令行热修改redis配置,打开aof,这个redis就会将内存中的数据对应的日志,写入aof文件中。此时aof和rdb两份数据文件的数据就同步了。

[root@redis_01 bin]# ./redis-cli config get appendonly
1) "appendonly"
2) "no"
[root@redis_01 bin]# ./redis-cli config set appendonly yes
OK

redis config set热修改配置参数,可能配置文件中的实际的参数没有被持久化的修改,再次停止redis,手动修改配置文件,打开aof的命令,再次重启redis。

  • 如果当前机器上的所有RDB文件全部损坏,那么从远程的云服务上拉取最新的RDB快照回来恢复数据
  • 如果是发现有重大的数据错误,比如某个小时上线的程序一下子将数据全部污染了,数据全错了,那么可以选择某个更早的时间点,对数据进行恢复

        举个例子,12点上线了代码,发现代码有bug,导致代码生成的所有的缓存数据,写入redis,全部错了。找到一份11点的rdb的冷备,然后按照上面的步骤,去恢复到11点的数据,就可以了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

盡盡

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值