持久化之RDB:
RDB(Redis Data Base)
配置文件:dump.rdb
是什么:
在指定的时间间隔内将内存中的数据集快照写入磁盘,
也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里
RDB的缺点是最后一次持久化后的数据可能丢失。
SNAPSHOTTING快照
如何触发RDB快照(备份):
1 可以cp dump.rdb dump_new.rdb
2 Save:save时只管保存,其它不管,全部阻塞
动态所有停止RDB保存规则的方法:redis-cli config set save ""
3 BGSAVE:Redis会在后台异步进行快照操作,
快照同时还可以响应客户端请求。可以通过lastsave
命令获取最后一次成功执行快照的时间
默认的快照配置:
是1分钟内改了1万次,
或5分钟内改了10次,
或15分钟内改了1次。
PS:执行flushall命令,也会产生dump.rdb文件,但里面是空的,无意义
优势:
适合大规模的数据恢复
对数据完整性和一致性要求不高
劣势:
fork的时候,内存中的数据被克隆了一份,大致2倍的膨胀性需要考虑
持久化之AOF:
AOF(Append Only File)
配置文件:appendonly.aof
是什么:
以日志的形式来记录每个写操作,将Redis执行过的所有写指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作
修复命令:redis-check-aof --fix appendonly.aof
--fix可以直接进行修复 不加此参数仅检查
Rewrite
AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制,
当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩,
只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof
重写原理:
AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename),遍历新进程的内存中数据,每条记录有一条的Set语句。重写aof文件的操作,并没有读取旧的aof文件,而是将整个内存中的数据库内容用命令的方式重写了一个新的aof文件,这点和快照有点类似
触发机制:
Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发
RDB和AOF的总结
RDB的数据不实时 如果宕机可能丢失很多数据(Fork出一条和当前操作进程一模一样的进程来进行RDB持久化)
AOF每秒更新 频繁IO 消耗性能(Fork出一条进程来记录增删改操作 写入appendonly.aof)
性能建议:
因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 900 1这条规则。
如果Enalbe AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了。代价一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上。默认超过原大小100%大小时重写可以改到适当的数值。
如果不Enable AOF ,仅靠Master-Slave Replication 实现高可用性也可以。能省掉一大笔IO也减少了rewrite时带来的系统波动。代价是如果Master/Slave同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave中的RDB文件,载入较新的那个。新浪微博就选用了这种架构