Java八股文——Redis相关面试题最详细解答!

一.Redis作为缓存。

1.什么是缓存穿透?怎么解决?

缓存穿透是指查询一个一定 不存在 的数据,如果从存储层查不到数据则不写 入缓存,这将导致这个不存在的数据每次请求都要到 DB 去查询,可能导致 DB 挂掉。这种情况大概率是遭到了攻击。

解决方案的话,通常都会用布隆过滤器来解决它。

布隆过滤器主要是用于检索一个元素是否在一个集合中。我们当时使用的是 redisson实现的布隆过滤器。 它的底层主要是先去初始化一个比较大数组,里面存放的二进制0或1。在一 开始都是0,当一个key来了之后经过3次hash计算,模于数组长度找到数据 的下标然后把数组中原来的0改为1,这样的话,三个数组的位置就能标明一 个key的存在。查找的过程也是一样的。 当然是有缺点的,布隆过滤器有可能会产生一定的误判,我们一般可以设置 这个误判率,大概不会超过5%,其实这个误判是必然存在的,要不就得增 加数组的长度,其实已经算是很划分了,5%以内的误判率一般的项目也能 接受,不至于高并发下压倒数据库。

2.什么是缓存击穿?怎么解决?

缓存击穿的意思是对于设置了过期时间的key,缓存在某个时间点过期的时 候,恰好这时间点对这个Key有大量的并发请求过来,这些请求发现缓存过 期一般都会从后端 DB 加载数据并回设到缓存,这个时候大并发的请求可能 会瞬间把 DB 压垮。

解决方案有两种方式:

第一可以使用互斥锁:当缓存失效时,不立即去load db,先使用如 Redis 的 setnx 去设置一个互斥锁,当操作成功返回时再进行 load db的操作并回设缓 存,否则重试get缓存的方法

第二种方案可以设置当前key逻辑过期,大概是思路如下:

①:在设置key的时候,设置一个过期时间字段一块存入缓存中,不给当前 key设置过期时间

②:当查询的时候,从redis取出数据后判断时间是否过期

③:如果过期则开通另外一个线程进行数据同步,当前线程正常返回数据, 这个数据不是最新

当然两种方案各有利弊: 如果选择数据的强一致性,建议使用分布式锁的方案,性能上可能没那么 高,锁需要等,也有可能产生死锁的问题 如果选择key的逻辑删除,则优先考虑的高可用性,性能比较高,但是数据 同步这块做不到强一致。

3.什么是缓存雪崩?怎么解决?

缓存雪崩意思是设置缓存时采用了相同的过期时间,导致缓存在某一时刻同 时失效,请求全部转发到DB,DB 瞬时压力过重雪崩。与缓存击穿的区别: 雪崩是很多key,击穿是某一个key缓存。

解决方案主要是可以将缓存失效时间分散开,比如可以在原有的失效时间基 础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重 复率就会降低,就很难引发集体失效的事件。

4.Redis作为缓存,如何与MYsql中的数据保持一致?(双写一致性问题)

首先解释什么是双写一致性:

双写一致性:当修改了数据库中的数据同时也要更新缓存中的数据,保证数据的一致性。

回答的思路:

第一步:先设置前提,先介绍自己的业务背景,是强一致性,还是最终一致性。

比如最终一致性:我们当时是把一些热点数据存到了缓存中,虽然是热点数据,但是实时的要求性没有那么高,所以,我们当时采用的是异步的方案同步的数据。

比如强一致性:我们当时是把抢券的库存存入了缓存中,这个需要实时进行数据同步,为了保证数据的强一致,我们当时采用的是Redisson提供的读写锁来保证数据的同步。

(1)强一致性

可以采用分布式锁去解决。

但是如果采用普通的分布式锁,只在读的时候或者写的时候加锁,不能保证数据的强一致性,而且性能是比较低的。普通的分布式锁原理图如下:

我们分析可知,保证数据库和缓存的数据一致,通常是因为读写的操作,而且以读多写少的情况最多,所以最好采用读写锁去保证数据的强一致性。

共享锁:也就是读锁readLock,加锁之后,其他线程可以共享读操作。

排他锁:也叫独占锁writeLock,加锁之后,阻塞其他线程进行读写操作。

 具体的代码如下:

读锁:

 写锁:

采用Redisson实现的读写锁去保证强一致性,在读的时候添加共享锁,可以保证读 读不互斥,读写互斥。当我们更新数据的时候,添加排他锁,它是读写,读 读都互斥,这样就能保证在写数据的同时是不会让其他线程读数据的,避免 了脏数据。这里面需要注意的是读方法和写方法上需要使用同一把锁才行。

但是这种读写锁的方法虽然能保证数据的强一致性,但是性能也是比较低的。

5.有的面试官可能会问:为什么不采用延迟双删呢?

这是因为延迟双删,如果是写操作,我们先把缓存中的数据删除,然后更新 数据库,最后再延时删除缓存中的数据,其中这个延时多久不太好确定,在 延时的过程中可能会出现脏数据,并不能保证强一致性。

延迟双删的逻辑:

 但是无论是先删除缓存再修改数据库,还是先修改数据库再删除缓存,都有可能产生脏数据。原理如下:

(2)最终一致性

最终一致性在开发中出现的场景比较多,它可以允许数据不一致,只要最终数据是一致的就行。

解决方法1:异步通知保证数据的最终一致性。

如图:

 采用异步通知保证数据的最终一致性,只需要保证MQ的可靠性就行。

解决方法2:基于canal的异步通知:

这个阿里的canal组件实现数据同步:不需要更改业务代码,只需要部署 一个canal服务。canal服务把自己伪装成mysql的一个从节点,当mysql数据 更新以后,canal会读取binlog数据,然后在通过canal的客户端获取到数据, 更新缓存即可。 

6.Redis的数据过期策略。

面试官通常会这么问:假如Redis的key过期之后,会立即删除吗?

首先解释下什么是过期策略。

Redis对数据设置的有效时间,数据过期之后,就需要将数据从内存中删除掉。可以按照不同的规则进行删除,这种删除规则就被称之为数据的删除策略。

Redis中提供了两种数据过期删除策略:惰性删除,定期删除。

惰性删除,就是在设置该key过期时间后,我们不去管它,当需要该key 时,我们在检查其是否过期,如果过期,我们就删掉它,反之返回该key。

惰性删除的优点:对cpu友好,只会在使用该key时才会进行过期检查,对于很多用不到的key不用浪费时间进行过期检查。

缺点:对内存不友好,如果一个key已经过期,但是一直没有使用,那么该key就会一直存在内存中,内存永远不会释放。

定期删除,就是说每隔一段时间,我们就对一些key进行检查,删 除里面过期的key。

定期删除有两种模式:

SLOW模式是定时任务,执行频率默认为10hz(1秒执行10次),每次不超过25ms,以通过修改配 置文件redis.conf 的 hz 选项来调整这个次数。

FAST模式执行频率不固定,每次事件循环会尝试执行,但两次间隔不低于2ms, 每次耗时不超过1ms。

定期删除的优点:可以通过限制删除操作执行的时长和频率来减少删除操作对cpu 的影响。另外定期删除,也能有效释放过期键占用的内存。

缺点:难以确定删除操作执行的时长和频率。

Redis的过期删除策略: 惰性删除 + 定期删除 两种策略进行配合使用。

7.Redis的数据淘汰策略有哪些?

在redis中提供了很多种,默认是noeviction,不删除任何key,但内存满时不允许写入新数据,内存不足直接报错。默认配置是可以在redis的配置文件中进行手动设置的。

里面有两个非常重要的概念,一个 是LRU,另外一个是LFU。

LRU的意思就是最少最近使用,用当前时间减去最后一次访问时间,这个值 越大则淘汰优先级越高。

LFU的意思是最少频率使用。会统计每个key的访问频率,值越小淘汰优先级 越高。

我们在项目设置的allkeys-lru,挑选最近最少使用的数据淘汰,把一些经常访问的key留在redis中

二.Redis作为分布式锁。

1.Redis作为分布式锁是如何实现的?

通常情况下,分布式锁使用的场景:集群情况下的定时任务,抢单抢券,秒杀活动,幂等性场景等。

例如:抢券的场景。【多台服务器的情况下使用分布式锁】

Redis 分布式锁的实现:setnx命令或者Redisson框架。

(1)setnx命令是SET if not exists(如果不存在则set)的简写。

         获取锁:SET lock value NX EX 10  (#添加锁,NX是互斥,EX是设置超时时间)

         释放锁:DEL key  (#直接释放, 删除即可。)

2.那么Redis实现的分布式锁的有效时长怎么合理的控制呢?

解决方法:给锁续期。 就是基于Redisson框架实现分布式锁。

执行流程:

 在redisson中需要手动加锁,并且可以控制锁的失效时间和等待时间,当锁 住的一个业务还没有执行完成的时候,在redisson中引入了一个看门狗机 制,就是说每隔一段时间就检查当前业务是否还持有锁,如果持有就增加加 锁的持有时间,当业务执行完成之后需要使用释放锁就可以了。

还有一个好处就是,在高并发下,一个业务有可能会执行很快,先客户1持 有锁的时候,客户2来了以后并不会马上拒绝,它会自旋不断尝试获取锁, 如果客户1释放之后,客户2就可以马上持有锁,性能也得到了提升。

 代码实例:

注意:加锁,设置过期时间等操作都是基于lua脚本完成的。

3.Redis实现的分布式锁,可以重入吗?

是可以重入的。如果是同一个线程就可以重入,不是一个线程肯定要互斥。这样做是为了避免死锁的产生。这个重入其实 在内部就是判断是否是当前线程持有的锁,如果是当前线程持有的锁就会计 数,如果释放锁就会在计算上减一。在存储数据的时候采用的hash结构,大 key可以按照自己的业务进行定制,其中小key是当前线程的唯一标识,value 是当前线程重入的次数。

三.Redis集群问题

1.Redis集群都有哪些方案?

主从集群、哨兵集群、分片集群。

2.介绍一下主从同步集群?

单点的Redis的并发能力是有限的,如果想进一步提高并发能力,需要搭建主从集群,实现读写分离。

主从同步的原理:

(1)全量同步

全量同步是指从节点第一次与主节点建立连接的时候使用全量同步。

流程是这样的:

第一:从节点请求主节点同步数据,其中从节点会携带自己的replication id 和offset偏移量。

第二:主节点判断是否是第一次请求,主要判断的依据就是,主节点与从节 点是否是同一个replication id,如果不是,就说明是第一次同步,那主节点 就会把自己的replication id和offset发送给从节点,让从节点与主节点的信息 保持一致。

第三:在同时主节点会执行bgsave,生成rdb文件后,发送给从节点去执 行,从节点先把自己的数据清空,然后执行主节点发送过来的rdb文件,这 样就保持了一致 。

当然,如果在rdb生成执行期间,依然有请求到了主节点,而主节点会以命 令的方式记录到缓冲区,缓冲区是一个日志文件,最后把这个日志文件发送 给从节点,这样就能保证主节点与从节点完全一致了,后期再同步数据的时 候,都是依赖于这个日志文件,这个就是全量同步。

逻辑图如下:

Replication Id:简称replid,是数据集的标记,id一致说明是同一数据集。每个master都有唯一的replid,slave则会继承master节点的replid。

offest:偏移量,随着记录在repl_baklog中的数据增多而逐渐增大。slave完成同步时也会记录当前同步的offset。如果slave的offset小于master的offset,则说明slave数据落后于master,需要更新。

(2)增量同步【slave重启或后期数据发生变化】

增量同步指的是,当从节点服务重启之后,数据就不一致了,所以这个时 候,从节点会请求主节点同步数据,主节点还是判断不是第一次请求,不是 第一次就获取从节点的offset值,然后主节点从命令日志中获取offset值之后 的数据,发送给从节点进行数据同步。

逻辑图如下:

 

3.怎么保证Redis的高并发高可用?

首先可以搭建主从集群,再加上使用redis中的哨兵模式,哨兵模式 可以实现主从集群的自动故障恢复,里面就包含了对主从服务的监控、自动 故障恢复、通知;如果master故障,Sentinel会将一个slave提升为master。 当故障实例恢复后也以新的master为主;同时Sentinel也充当Redis客户端的 服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户 端,所以一般项目都会采用哨兵的模式来保证redis的高并发高可用。

哨兵的作用:

Redis提供了哨兵(Sentinel)机制来实现主从集群的自动故障恢复。哨兵的结构和作用如下:

* 监控:Sentinel会不断检查您的master和slave是否按预期工作。

*自动故障恢复:如果master故障,Sentinel会将一个slave提升为master。当故障实例恢复后也以新的master为主。

*通知:Sentinel充当Redis的客户端的服务发现来源,当集群发生故障转移时,会将最新信息推送给Redis的客户端。

服务状态监控:

Sentinel基于心跳机制检测服务状态,每个1秒向集群的每个实例发送ping命令:

*主观下线:如果某Sentinel节点发现某实例未在规定的时间响应,则认为该实例主观下线。

*客观下线:如果超过指定数量的Sentinel都认为该实例主观下线,则该实例客观下线。

哨兵选主的规则:

*首先判断主从节点断开的时间长短,如果超过了指定值就排除该从节点。

*然后判断从节点的slave-priority值,越小优先级越高。

*如果slave-prority一样,则判断slave节点的offset值,越大优先级越高。

*最后是判断slave节点的运行id大小,越小优先级越高。

4.redis集群脑裂,该怎么解决呢?

这个在项目很少见,不过脑裂的问题是这样的, 有的时候由于网络等原因可能会出现脑裂的情况,就是说,由于redis master节点和redis salve节点和sentinel处于不同的网络分区,使得sentinel没 有能够心跳感知到master,所以通过选举的方式提升了一个salve为master, 这样就存在了两个master,就像大脑分裂了一样,这样会导致客户端还在 old master那里写入数据,新节点无法同步数据,当网络恢复后,sentinel会 将old master降为salve,这时再从新master同步数据,这会导致old master中 的大量数据丢失。

关于解决的话,我记得在redis的配置中可以设置:第一可以设置最少的salve 节点个数,比如设置至少要有一个从节点才能同步数据,第二个可以设置主 从数据复制和同步的延迟时间,达不到要求就拒绝请求,就可以避免大量的数据丢失。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值