Redis 详细考点

Redis

哪些地方用到 Redis

点赞、关注、登录验证码、登录的凭证、用户

redis 的 key 设计

package com.conquer.community.util;

import com.conquer.community.entity.User;

public class RedisKeyUtil {

    private static final String SPLIT = ":";
    private static final String PREFIX_ENTITY_LIKE = "like:entity";
    private static final String PREFIX_USER_LIKE = "like:user";
    private static final String PREFIX_FOLLOWEE = "followee";
    private static final String PREFIX_FOLLOWER = "follower";
    private static final String PREFIX_KAPTCHA = "kaptcha";
    private static final String PREFIX_TICKET = "ticket";
    private static final String PREFIX_USER = "user";

    // 某个实体的赞
    // like:entity:entityType:entityId -> set(userId)
    public static String getEntityLikeKey(int entityType, int entityId) {
        return PREFIX_ENTITY_LIKE + SPLIT + entityType + SPLIT + entityId;
    }

    // 某个用户的赞
    // like:user:userId ---> int
    public static String getUserLikeKey(int userId) {
        return  PREFIX_USER_LIKE + SPLIT + userId;
    }

    // 某个用户关注的实体
    // followee:userId:entityType  --->  zset(entityId, now)
    public static String getFolloweeKey(int userId, int entityType) {
        return PREFIX_FOLLOWEE + SPLIT + userId + SPLIT + entityType;
    }

    // 某个实体拥有的粉丝
    // follower:entityType:entityId ---> zset(userId, now)
    public static String getFollowerKey(int entityType, int entityId) {
        return PREFIX_FOLLOWER + SPLIT + entityType + entityId;
    }

    // 登录验证码
    public static String getKaptchaKey(String owner) {
        return PREFIX_KAPTCHA + SPLIT + owner;
    }

    // 登陆的凭证
    public static String getTicketKey(String ticket) {
        return PREFIX_TICKET + SPLIT + ticket;
    }

    // 用户
    public static String getUserKey(int userId) {
        return PREFIX_USER + SPLIT + userId;
    }
}

​ redis 的 key 是 String 类型的,编写了一个工具类来生成 redis 的 key。key 由多个单词拼接而成。

点赞

某个实体的赞:使用 set 类型存储:key 为点赞对象、set 中保存点赞人的 ID

某个用户(发帖用户或者评论用户)收到的赞的个数:使用 value 类型保存

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

关注

关注的实体:使用 ZSet 类型存储 —— key 为被关注者,set 保存关注者、分数score 保存关注时间

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

登陆凭证

登录凭证 ticket:使用 value 进行数据存储,key 为 ticket,value 为 ticket字符串

String redisKey = RedisKeyUtil.getTicketKey(loginTicket.getTicket());
redisTemplate.opsForValue().set(redisKey, loginTicket);

用户

用户:使用 Value 类型存储,key 为用userID 得到的 Key,value 为 user 对象

验证码

验证码是与 user 相关的,但是我们不能直接传入 userId,因为还未登录,我们不知道用户是谁。这里传入了一个字符串 owner,这里在用户访问登陆页面的时候,给他发一个凭证,也就是一个随机字符串,存到 cookie 中

相当于模拟了一个cookie(存着随机字符串、验证码存活时长、contextPath 也就是 URL) sessionID(随机字符串) 给前端

Redis存储验证码:类型为 String,key是 随机字符串、验证码、验证码时长、当前时间,value 是 String 类型的 验证码结果。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

用的时候从 cookie 内将这个 owner 取出来,再得到 redisKey,然后获取验证码,与输入的验证码进行对比

点赞

1、缓存点赞数如何实现

Set类型来存储点赞的用户ID,那么:

  • Key: 可能是表示特定内容或帖子的唯一标识符。
  • Value: 是以Set类型存储的,包含了所有点赞该内容或帖子的用户ID

**点赞时有一个判断逻辑:用户是否已经点赞:**用 redisTemplate.opsForSet().ismember() 方法,点赞的话,删除点赞,否则添加点赞数据。

这里用到了事务操作 重写了 execute 方法

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

为什么redis 的事务不会直接执行,而是放入到执行队

因为它采用了一种延迟执行的机制

2、查询点赞数量和点赞状态:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

优化点:刚开始点赞状态用的布尔值,后来为了开发新功能,比如踩就是 -1

3、点赞数据怎么持久化
开启定时任务持久化存储到数据库

定时任务 Quartz 很强大,就用它了。

Quartz 使用步骤:

1.添加依赖

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-quartz</artifactId>
</dependency>

2.编写配置文件

package com.solo.coderiver.user.config;

import com.solo.coderiver.user.task.LikeTask;
import org.quartz.*;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;

@Configuration
public class QuartzConfig {

    private static final String LIKE_TASK_IDENTITY = "LikeTaskQuartz";

    @Bean
    public JobDetail quartzDetail(){
        return JobBuilder.newJob(LikeTask.class).withIdentity(LIKE_TASK_IDENTITY).storeDurably().build();
    }

    @Bean
    public Trigger quartzTrigger(){
        SimpleScheduleBuilder scheduleBuilder = SimpleScheduleBuilder.simpleSchedule()
//                .withIntervalInSeconds(10)  //设置时间周期单位秒
                .withIntervalInHours(2)  //两个小时执行一次
                .repeatForever();
        return TriggerBuilder.newTrigger().forJob(quartzDetail())
                .withIdentity(LIKE_TASK_IDENTITY)
                .withSchedule(scheduleBuilder)
                .build();
    }
}

3.编写执行任务的类继承自 QuartzJobBean

package com.solo.coderiver.user.task;

import com.solo.coderiver.user.service.LikedService;
import lombok.extern.slf4j.Slf4j;
import org.apache.commons.lang.time.DateUtils;
import org.quartz.JobExecutionContext;
import org.quartz.JobExecutionException;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.scheduling.quartz.QuartzJobBean;

import java.text.SimpleDateFormat;
import java.util.Date;

/**
 * 点赞的定时任务
 */
@Slf4j
public class LikeTask extends QuartzJobBean {

    @Autowired
    LikedService likedService;

    private SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");

    @Override
    protected void executeInternal(JobExecutionContext jobExecutionContext) throws JobExecutionException {

        log.info("LikeTask-------- {}", sdf.format(new Date()));

        //将 Redis 里的点赞信息同步到数据库里
        likedService.transLikedFromRedis2DB();
        likedService.transLikedCountFromRedis2DB();
    }
}

在定时任务中直接调用 LikedService 封装的方法完成数据同步。

  1. 数据库操作:
@Service
@Slf4j
public class LikedServiceImpl implements LikedService {

    @Autowired
    UserLikeRepository likeRepository;

    @Autowired
    RedisService redisService;

    @Autowired
    UserService userService;

    @Override
    @Transactional
    public UserLike save(UserLike userLike) {
        return likeRepository.save(userLike);
    }

    @Override
    @Transactional
    public List<UserLike> saveAll(List<UserLike> list) {
        return likeRepository.saveAll(list);
    }

    @Override
    public Page<UserLike> getLikedListByLikedUserId(String likedUserId, Pageable pageable) {
        return likeRepository.findByLikedUserIdAndStatus(likedUserId, LikedStatusEnum.LIKE.getCode(), pageable);
    }

    @Override
    public Page<UserLike> getLikedListByLikedPostId(String likedPostId, Pageable pageable) {
        return likeRepository.findByLikedPostIdAndStatus(likedPostId, LikedStatusEnum.LIKE.getCode(), pageable);
    }

    @Override
    public UserLike getByLikedUserIdAndLikedPostId(String likedUserId, String likedPostId) {
        return likeRepository.findByLikedUserIdAndLikedPostId(likedUserId, likedPostId);
    }

    @Override
    @Transactional
    public void transLikedFromRedis2DB() {
        List<UserLike> list = redisService.getLikedDataFromRedis();
        for (UserLike like : list) {
            UserLike ul = getByLikedUserIdAndLikedPostId(like.getLikedUserId(), like.getLikedPostId());
            if (ul == null){
                //没有记录,直接存入
                save(like);
            }else{
                //有记录,需要更新
                ul.setStatus(like.getStatus());
                save(ul);
            }
        }
    }

    @Override
    @Transactional
    public void transLikedCountFromRedis2DB() {
        List<LikedCountDTO> list = redisService.getLikedCountFromRedis();
        for (LikedCountDTO dto : list) {
            UserInfo user = userService.findById(dto.getId());
            //点赞数量属于无关紧要的操作,出错无需抛异常
            if (user != null){
                Integer likeNum = user.getLikeNum() + dto.getCount();
                user.setLikeNum(likeNum);
                //更新点赞数量
                userService.updateInfo(user);
            }
        }
    }
}

以上就是点赞功能的设计与实现,不足之处还请各位大佬多多指教。

用户缓存

1、缓存设计

项目中:redis 存储用户信息时,采用只读模式:

方法:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

具体方法逻辑实现:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

会出现缓存和数据库一致性的问题

登陆凭证

在进行退出业务的时候,将登陆凭证的状态修改

如何保证 redis 和 数据库的一致性

读写缓存和只读缓存:

1、读写缓存:

  • 同步直写策略:需要同时更新数据库和缓存,所以使用事务机制,保证数据库和缓存操作的原子性
  • 异步写回策略

2、只读缓存:

  • 数据新增,会直接写入数据库

  • 数据删改,把缓存数据标记为无效

    这样一来,应用后续再访问这些增删改的数据时,因为缓存中没有相应的数据,就会发生缓存缺失。此时,应用再从数据库中把数据读入缓存,这样后续再访问数据时,就能够直接从缓存中读取了。

    这样的话,删除怎么办,没删除数据库又同步回来等于没删啊!!!!!!!!!!

点赞:

额外问题

1、Redis 延迟机制

首先,Redis 的事务是通过 MULTI、EXEC、WATCH等命令来实现的。当客户端发送 MULTI 命令时,Redis 会将客户端状态从非事务状态切换到事务状态,此时客户端发送的命令不会被立即执行,而是放入一个事务队列中缓存起来。目的:

  • 批量操作的原子性:虽然 Redis 事务并不提供传统数据库的 ACID 事务特性。但它通过将一系列命令打包成一个单元来执行,确保了这些命令的批量操作在发送 EXEC 命令前作为一个整体被处理
  • 隔离性:在事务执行过程中,其他客户端提交的命令请求不会插入到事务执行命令序列中,这样可以避免并发操作带来的数据不一致问题。
  • 提供一定程度的安全性:通过使用 WATCH 命令,Redis 可以在事务执行前检查被监视的键是否在事务执行前发生了变化,如果发生了变化,事务将不会,对并发操作提供了一定的安全保障

Redis 事务一旦开启,就没有办法回滚和撤销,意味着如果事务中的某个命令失败,Redis 会继续执行事务中的剩余命令,所以,在使用 Redis 事务时,需要确保事务中的命令都是正确的。

2、缓存数据库一致性问题

具体方法逻辑实现:

3、出现缓存和数据库一致性的问题
在什么时候出现该问题?
不用 先删除缓存再更新数据库 策略原因:
  • 更新数据库操作比更新缓存慢,所以数据库没更新完,缓存已经删除之后又已再次更新成功,这时缓存与数据库数据不一致
  • 直接访问数据库会给数据库带来很大压力
项目中

,采用先更新数据库,然后删除缓存:

如何解决缓存数据库的数据不一致问题:
  1. 删除缓存值或更新数据库失败而导致数据不一致,可以使用 重试机制 确保删除或更新成功
  2. 在删除缓存值再更新数据库时,如果此时有其他线程进入,就会导致数据不一致。可以使用 延迟双删 策略

重试机制:将要删除的缓存值或是要更新的数据库数值暂存到消息队列中,当没有成功就从队列中读取,然后再进行删除或更新,成功就将这些值从消息队列中去除 。

延迟双删:一般用于先删除缓存再更新到数据库。延迟双删也就是两次删除,在更新完数据库数据之后,我们先让它 sleep 一小段时间,在进行一次缓存删除操作。这里的 sleep 时间,是为了让线程B先从数据库在中读取数据,再写入缓存

在完成数据库更新操作后,让执行更新的线程(例如线程A)暂时休眠一段时间。这样做的目的是确保其他线程(例如线程B)有足够的时间从数据库中读取更新后的数据并写回到缓存中。这样,当线程A再次醒来并执行第二次缓存删除操作时,可以尽可能保证缓存中的数据已被更新,从而维护缓存和数据库之间的数据一致性。

4、Redis 持久化

Redis是一个内存数据库,所以其运行效率非常高。但也 存在一个问题:内存中的数据是不持久的,若 主机宕机 或 Redis 关机重启,则内存中的数据全部丢失。当然,这是不允许的。 Redis 具有持久化功能,其会按照设置以 快照 或 操作日志 的形式将数据持久化到磁盘。

根据持久化使用技术的不同,Redis 的持久化分为两种: RDB(Redis DataBase) 与 AOF (Append Only File)。

4.1 持久化基本原理

Redis 持久化 也称为 钝化, 是指将内存中数据库的状态描述信息保存到磁盘中。只不过是不同的持久化技术,对数据的状态描述信息是不同的 ,生成的持久化文件也是不同的 。但它们的作用都是相同的:避免数据意外丢失。

通过手动方式,或 自动定时方式,或 自动条件触发方式,将内存中数据库的状态描述信息写入到指定的持久化文件中。当系统重新启动时,自动加载 持久化文件,并根据文件中数据库状态描述信息将数据恢复到内存中 ,这个数据恢复过程也称为激活 。这个 钝化 与 激活 的过程就是 Redis 持久化的基本原理。

不过从以上分析可知, 对于 Redis 单机状态下, 无论是手动方式,还是定时方式或条件触发方式,都存在数据丢失问题: 在尚未手动自动保存时发生了 Redis 宕机状况,那么从上次保存到宕机期间产生的数据就会丢失。不同的持久化方式,其数据的丢失率也是不同的。

需要注意的是, RDB 是 默认持久化方式,但 Redis 允许 RDB 与 AOF 两种持久化技术同时开启,此时系统会使用 AOF 方式做持久化,即 AOF 持久化技术的 优先级要更高。同样的道理,两种技术同时开启状态下, 系统启动时若两种持久化文件同时存在,则 优先加载 AOF持久化文件。

4.2 RDB持久化

RDB,Redis DataBase ,是指将内存中某一时刻的 数据快照 全量 写入到指定的 rdb 文件 的持久化技术。 RDB 持久化默认是开启的。 当 Redis 启动时会 自动读取 RDB 快照文件,将数据从硬盘载入到内存, 以恢复 Redis 关机前的数据库状态。

4.2.1RDB 持久化的执行

RDB持久化的执行有三种方式:手动 save 命令、手动 bgsave 命令,与自动条件触发。

(1) 手动 save 命令

通过在 redis-cli 客户端中执行 save 命令可立即进行一次持久化保存。 save 命令在执行期间会 阻塞 redis-server 进程,直至持久化过程完毕。而在 redis-server 进程阻塞期间, Redis 不能处理任何读写请求,无法对外提供服务。

(2) 手动 bgsave 命令

通过在 redis-cli 客户端中执行 bgsave 命令可立即进行一次持久化保存。不同于 save 命令的是,正如该命令的名称一样, background save ,后台运行 save 。 bgsave 命令会使服务器进程 redis-server 生成一个 子进程,由该子进程负责完成保存过程 。在子进程进行保存过程中,不会阻塞 redis-server 进程对客户端读写请求的处理。

(3) 自动条件触发

自动条件触发的本质仍是 bgsave 命令的执行。只不过是用户通过在配置文件中做相应的设置后, Redis 会根据设置信息自动调用 bgsave 命令执行。

(4) 查看持久化时间

通过 lastsave 命令可以查看最近一次执行持久化的时间 ,其返回的是一个 Unix 时间戳 (ms)。

4.2.2、RDB优化配置(重要 !!!)

RDB 相关的配置在 redis.conf 文件的 SNAPSHOTTING 部分。

(1) save

该配置用于设置快照的自动保存触发条件,即 save point ,保存点。该触发条件是在指定时间段内发生了指定次数的写操作。 除非另有规定,默认情况下持久化条件为 save 3600 1 300 100 60 10000 。 其等价于以下三条:

save 3600 1 # 在 3600 秒 (1 小时) 内发生 1 次写操作
save 300 100 # 在 300 秒 (5 分钟) 内发生 100 次写操作
save 60 10000 # 在 60 秒 (1 分钟) 内发生 1 万次写操作
如果不启用RDB 持久化,只需设置 save 的参数为空串即可: save “”。

(2) stop-write-on-bgsave-error

默认情况下,如果 RDB 快照已启用(至少一个保存点),且最近的 bgsave 命令失败, Redis将停止接受写入。这样设置是为了让用户意识到数据没有正确地保存到磁盘上,否则很可能没有人会注意到,并会发生一些灾难 。当然,如果 bgsave 命令后来可以正常工作了, Redis将自动允许再次写入。

(3) rdbcompression

当进行持久化时启用 LZF 压缩字符串对象。虽然压缩 RDB 文件会消耗系统资源,降低性能,但可大幅降低文件的大小,方便保存到磁盘,加速主从集群中从节点的数据同步。

(4) rdbchecksum

从 RDB5 开始, RDB 文件的 CRC64 校验和就被放置在了文件末尾。这使格式更能 抵抗 RDB文件的损坏,但在保存和加载 RDB 文件时,性能会受到影响(约 10%),因此可以设置为 no 禁用校验和以获得最大性能。

在禁用校验和的情况下创建的 RDB 文件的校验和为零,这将告诉加载代码跳过校验检查。
默认为 yes ,开启了校验功能。
(5) sanitize-dump-payload

该配置用于设置在加载 RDB 文件或进行持久化时是否开启对 zipList 、 listPack 等数据的全面安全检测。该检测可以降低命令处理时发生系统崩溃的可能。其可设置的值有三种选择:

no :不检测
yes :总是检测
clients :只有当客户端连接时检测。排除了加载 RDB 文件与进行持久化时的检测。
默认值本应该是 clients ,但其会影响 Redis 集群的工作,所以默认值为 no ,不检测。

(6) dbfilename

指定 RDB 文件的默认名称,默认为 dump.rdb 。

(7) rdb-del-sync-files

主从复制时,是否删除用于同步的从机上的 RDB 文件。默认是 no ,不删除 。 不过需要注意, 只有当 从机 的 RDB 和 AOF 持久化功能 都未开启 时才生效。

(8) dir

指定 RDB 与 AOF 文件的生成目录。默认为 Redis 安装根目录。

4.2.3、RDB文件结构

RDB 持久化文件 dump.rdb 整体上有五部分构成:

(1) SOF

SOF (Start Of File) 是一个常量,一个字符串 REDIS ,仅包含这五个字符,其长度为 5 。用于标识 RDB文件的开始,以便在加载 RDB 文件时可以迅速判断出文件是否是 RDB 文件。

(2) rdb_version

这是一个整数,长度为 4 字节,表示 RDB 文件的版本号。

(3) EOF

EOF (End Of File) 是一个常量,占 1 个字节,用于标识 RDB 数据的结束,校验和的开始。

(4) check_um

校验和 check_sum 用于判断 RDB 文件中的内容是否出现 数据异常。 其采用的是 CRC64 校验算法。

(5) databases

databases 部分是 RDB 文件中最重要的数据部分,其可以包含任意多个非空数据库。而每个 database 又是由三部分构成:

  • SODB :是一个常量,占 1 个字节,用于标识一个数据库的开始。
  • db_number :数据库编号。
  • key_value_pairs :当前数据库中的键值对数据。

每个 key_value_pairs 又由很多个用于描述 键值对 的数据构成。

  • VALUE_TYPE :是一个常量,占 1 个字节,用于标识该键值对中 value 的类型。

  • EXPIRETIME_UNIT :是一个常量,占 1 个字节,用于标识 过期时间 的单位是 秒 还是 毫秒。

  • TIME :当前 key-value 的过期时间。

4.2.4、RDB持久化过程 (面试的时候要说清楚过程)

对于Redis 默认的 RDB 持久化,在进行 bgsave 持久化时, redis-server 进程会 fork 出一个 bgsave 子进程,由该子进程以 异步方式 负责完成持久化。而在持久化过程中, redis-server 进程不会阻塞,其会继续接收并处理用户的读写请求。
     bgsave子进程的详细工作原理如下:
     由于子进程可以继承 父进程的所有资源,且父进程不能拒绝子进程的继承权。所以,bgsave 子 进程有权读取到 redis-server 进程写入到内存中的用户数据,使得将内存数据持久化到 dump.rdb 成为可能。
     bgsave 子进程 在持久化时首先会将内存中的全量数据 copy 到磁盘中的一个 RDB 临时文件, copy 结束后,再将该文件 rename 为 dump.rdb ,替换掉原来的同名文件。

不过,在进行持久化过程中,如果 redis-server 进程接收到了用户写请求,则系统会将内存中发生数据修改的物理块 copy 出一个 副本。等内存中的全量数据 copy 结束后,会再将副本中的数据 copy 到 RDB 临时文件。 这个副本的生成是由于 Linux 系统的 写时复制技术(Copy-On-Write )实现的。

4.3 AOF持久化

AOF,Append Only File ,是指 Redis 将每一次的 写操作 都以 日志的形式 记录到一个 AOF 文件中的持久化技术。当需要恢复内存数据时,将这些 写操作重新执行一次,便会恢复到之前的内存数据状态。

4.3.1、AOF基础配置

(1) AOF 的开启
    默认情况下 AOF 持久化是没有开启的,通过修改配置文件中的 appendonly 属性为 yes 可以开启。

如果修改,一般不直接修改配置文件:
config set appendonly yes

改完支持把缓存内的还要修改 rewrite 一下:
config rewrite

(2) 文件名配置
  Redis 7 在这里发生了重大变化。原来只有一个 appendonly.aof 文件,现在具有了三类多个文件:

  • 基本文件:可以是 RDB 格式也可以是 AOF 格式。其存放的内容是由 RDB 转为 AOF 当时内存的快照数据。该文件可以有多个。
  • 增量文件:以操作日志形式记录转为 AOF 后的写入操作。该文件可以有多个。
  • 清单文件:用于维护 AOF 文件的创建顺序,保障激活时的应用顺序。 该文件只有一个。
    (3) 混合式持久化开启

对于基本文件可以是 RDF 格式也可以是 AOF 格式。通过 aof-use-rdb-preamble 属性可以选择。其默认值为 yes ,即默认 AOF 持久化的基本文件为 rdb 格式文件,也就是默认采用混合式持久化。

(4) AOF 文件目录配置

为了方便管理,可以专门为 AOF 持久化文件指定存放目录。目录名由 appenddirname 属性指定,存放在 redis.conf 配置文件的 dir 属性指定的目录,默认为 Redis 安装目录。

4.3.2、AOF文件格式

AOF 文件包含三类文件:基本文件、增量文件 与 清单文件。其中基本文件一般为 rdb 格式,在前面已经研究过了。下面就来看一下 增量文件 与 清单文件 的内容格式。

(1) Redis 协议

增量文件 扩展名为 .aof ,采用 AOF 格式。 AOF 格式其实就是 Redis 通讯协议格式, AOF持久化文件的 本质就是基于 Redis 通讯协议的文本 ,将命令以纯文本的方式写入到文件中。

Redis 协议规定, Redis 文本是 以行来划分 ,每行以 \r\n 行结束。每一行都有一个 消息头 以表示消息类型。 消息头 由六种不同的符号表示,其意义如下:

(+) 表示一个正确的状态信息
(-) 表示一个错误信息
(*) 表示消息体总共有多少行,不包括当前行
($) 表示下一行 消息数据 的长度,不包括换行符长度 \r\n
(空) 表示一个消息数据
(😃 表示返回一个数值
(2) 查看AOF文件

打开 appendonly.aof.1.incr.aof 文件,可以看到格式内容。

(3) 清单文件

打开清单文件 appendonly.aof.manifest ,查看其内容如下:

该文件首先会按照 seq 序号列举出所有基本文件,基本文件 type 类型为 b ,然后再按照 seq 序号再列举出所有增量文件,增量文件 type 类型为 i 。

对于 Redis 启动时的数据恢复,也会按照该文件由上到下依次加载它们中的数据。

4.3.3、Rewrite机制(面试经常会问!!!)

随着使用时间的推移,AOF 文件会越来越大。为了防止 AOF 文件由于太大而占用大量的磁盘空间,降低性能, Redis 引入了 Rewrite 机制来对 AOF 文件进行压缩。

(1) 何为 rewrite

所谓 Rewrite 其实就是对 AOF 文件 进行重写整理。当 Rewrite 开启后,主进程 redis-server 创建出一个子进程 bgrewriteaof ,由该子进程完成 rewrite 过程。其首先对现有 aof 文件进行 rewrite 计算,将 计算结果 写入到一个临时文件,写入完毕后,再 rename 该临时文件为 原 aof文件名,覆盖原有文件。

(2) rewrite 计算

rewrite 计算也称为 rewrite 策略。 rewrite 计算遵循以下策略:

读操作命令 不写入文件
无效命令 不写入文件
过期数据 不写入文件
多条命令 合并写入 文件
(3) 手动开启 rewrite

Rewrite 过程的执行有两种方式。一种是通过 bgrewriteaof 命令手动开启,一种是通过设置条件自动开启。

以下是手动开启方式:

该命令会使主进程 redis-server 创建出一个子进程 bgrewriteaof ,由该子进程完成 rewrite过程。而在 rewrite 期间, redis-server 仍是可以对外提供读写服务的。

(4) 自动开启 rewrite

手动方式需要人办干预,所以一般采用自动方式。由于 Rewrite 过程是一个计算过程,需要消耗大量系统资源,会降低系统性能。所以, Rewrite 过程并不是随时随地任意开启的,而是通过设置一些条件,当满足条件后才会启动,以降低对性能的影响。

下面是配置文件中对于 Rewrite 自动启动条件的设置。

  • auto-aof-rewrite-percentage :开启 rewrite 的增大比例,默认 100% 。指定为 0 ,表示 禁用自动 rewrite 。
  • auto-aof-rewrite-min-size :开启 rewrite 的 AOF 文件最小值,默认 64M 。该值的设置主要是为了防止小 AOF 文件被 rewrite ,从而导致性能下降。

​ 自动重写 AOF 文件。当 AOF 日志文件大小增长到指定的百分比时, Redis 主进程 redis-server 会 fork 出一个子进程 bgrewriteaof 来完成 rewrite 过程。

其工作原理如下:

  • Redis 会记住最新 rewrite 后的 AOF 文件大小作为基本大小,如果从主机启动后就没有发生过重写,则基本大小就使用启动时 AOF 的大小。
  • 如果当前AOF 文件 大于 基本大小的配置文件中指定的百分比阈值,且当前 AOF 文件 大于 配置文件中指定的最小阈值,则会触发 rewrite 。
4.3.4、AOF优化配置

(1) appendfsync

当客户端提交写操作命令后,该命令就会写入到 aof_buf 中,而 aof_buf 中的数据持久化到磁盘 AOF 文件的过程称为数据同步。
    何时将 aof_buf 中的数据同步到 AOF 文件?采用不同的数据同步策略,同时的时机是不同的,有三种策略:

  • always :写操作命令写入 aof_buf 后会立即调用 fsync() 系统函数,将其追加到 AOF 文件。该策略效率较低,但相对比较安全,不会丢失太多数据。最多就是刚刚执行过的写操作在尚未同步时出现宕机或重启,将这一操作丢失。
  • no :写操作命令写入 aof_buf 后什么也不做,不会调用 fsync() 函数。而将 aof_buf 中的数据同步磁盘的操作由操作系统负责。 Linux 系统默认同步周期为 30 秒。效率较高。
  • everysec :默认策略。写操作命令写入 aof_buf 后并不直接调用 fsync(),而是 每秒调用一次 fsync() 系统函数来完成同步。该策略兼顾到了性能与安全,是一种折中方案。
  • (2) no-appendfsync-on-rewrite

该属性用于指定, 当 AOF fsync 策略设置为 always 或 everysec 当主进程创建了子进程 正在执行 bgsave 或 bgrewriteaof 时, 主进程是否不调用 fsync() 来做数据同步。设置为 no,双重否定即肯定,主进程会调用 fsync() 做同步。而 yes 则不会调用 fsync() 做数据同步。
    如果调用 fsync(),在需要同步的数据量非常大时,会 阻塞主进程 对外提供服务,即会存在延迟问题。如果不调用 fsync(),则 AOF fsync 策略相当于设置为了 no ,可能会 存在 30 秒数据丢失的风险。

在生产环境中:
如果 写操作 有可能出现 高并发 的情况,设为 yes;
大多数为 读操作 高并发,默认为 no。

(3) aof-rewrite-incremental-fsync

​ 当 bgrewriteaof 在执行过程也是先将 rewrite 计算的结果写入到了 aof_rewr ite_buf 缓存中,然后当缓存中数据达到一定量后就会调用 fsync() 进行 刷盘操作,即 数据同步 ,将数据写入到 临时文件。 该属性用于控制 fsync() 每次刷盘的数据量最大不超过 4MB 。这样可以避免由于单次刷盘量过大而引发长时间阻塞。

(4) aof-load-turncated

在进行 AOF 持久化过程中可能会出现 系统突然宕机的情况,此时写入到 AOF 文件中的最后一条数据可能会不完整。当主机启动后, Redis 在 AOF 文件不完整的情况下是否可以启动,取决于属性 aof-load-truncated 的设置。其值为:

yes: AOF 文件最后不完整的数据直接从 AOF 文件中截断删除,不影响 Redis 的启动。
no :AOF 文件最后不完整的数据不可以被截断删除, Redis 无法启动。
(5) aof-timestamp-enabled

该属性设置为 yes 则会开启在 AOF 文件中增加时间戳的显示功能,可方便按照时间对数据进行恢复。但该方式可能会与 当前AOF 解析器不兼容(以后可能会兼容),所以默认值为 no ,不开启。

4.3.5、AOF持久化过程

AOF 详细的持久化过程如下:

  1. Redis 接收到的 写操作命令 并不是直接追加到磁盘的 AOF 文件的,而是将每一条写命令 按照 redis 通讯协议格式 暂时 添加到 AOF 缓冲区 aof_buf 。
  2. 根据设置的数据同步策略,当同步条件满足时,再将缓冲区中的数据 一次性写入磁盘的 AOF 文件,以减少磁盘 IO 次数,提高性能。
  3. 当磁盘的 AOF 文件大小达到了 rewrite 条件时, redis-server 主进程会 fork 出一个子进程 bgrewriteaof ,由该子进程完成 rewrite 过程。
  4. 子进程 bgrewriteaof 首先对该磁盘 AOF 文件进行 rewrite 计算,将计算结果写入到一个临时文件,全部写入完毕后,再 rename 该临时文件为磁盘文件的原名称,覆盖原文件。
  5. 如果在 rewrite 过程中又有写操作命令追加,那么这些数据会暂时写入 aof_rewrite_buf 缓冲区。等将全部 rewrite 计算结果写入临时文件后,会先将 aof_rewrite_buf 缓冲区中的数据写入临时文件,然后再 rename 为磁盘文件的原名称,覆盖原文件。
4. 4 RDB与AOF对比
RDBAOF
优势文件较小 ; 恢复较快数据安全性高; AOF 文件可读性强
不足数据安全性较差; 写时复制会降低性能;RDB 文件可读性较差AOF文件较大;写操作会影响性能;数据恢复较慢
4.5 持久化技术转型

官方推荐使用 RDB 与 AOF 混合式持久化。
若对数据安全性要求不高,则推荐使用 纯 RDB 持久化方式。
不推荐使用纯 AOF 持久化方式。
若 Redis 仅用于缓存,则无需使用任何持久化技术。

CRC校验算法:

在持久化时,先将 SOF 、 rdb_version 及内存数据库中的 数据快照 这三者的二进制数据拼接起来,形成一个二进制数(假设称为数 a ),然后再使用这个 a 除以校验和 check_sum ,此时可获取到一个余数 b ,然后再将这个 b 拼接到 a 的后面,形成 databases 。
在加载时,需要先使用 check_sum 对 RDB 文件进行数据损坏验证。
验证过程:只需将 RDB 文件中除 EOF 与 check_sum 外的数据除以 check_sum 。只要除得的余数不是 0 ,就说明文件发生损坏。
当然,如果余数是 0 ,也不能肯定文件没有损坏。这种验证算法,是 数据损坏校验,而不是数据没有损坏的校验。

写时复制技术

写时复制技术是Linux 系统的一种进程管理技术。

原本在 Unix 系统中,当一个主进程通过 fork() 系统调用创建子进程后,内核进程 会 复制 主进程的整个内存空间中的数据,然后分配给子进程。这种方式存在的问题有以下几点:

这个过程非常耗时
这个过程降低了系统性能
如果主进程修改了其内存数据,子进程副本中的数据是没有修改的。即出现了数据冗余,而冗余数据最大的问题是数据一致性无法保证。

    现代 的 Linux 则采用了更为有效的方 式:写时复制。子进程会 继承 父进程的所有资源,其中就包括主进程的内存空间。即子进程与父进程 共享内存 。只要内存被共享 ,那么该内存就是只读的(写保护的)。
    而 写时复制 则是在任何一方需要写入数据到共享内存时都会出现异常,此时内核进程就会将需要写入的数据 copy 出一个副本写入到另外一块非共享内存区域。

  • 26
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值