应用问题包括缓存穿透,缓存击穿,缓存雪崩和分布式锁,这里需要面向面试进行学习,了解其产生的原因,特点,解决方法。
1 缓存穿透
(1)产生的原因和特点:某个key对应的数据在redis缓存和数据库中都不存在,导致每次针对此key的请求从redis缓存获取不到,请求都会压到数据库,从而可能压垮数据库。若黑客利用此漏洞进行攻击可能压垮数据库。比如:不存在的url访问。
随意改动url参数部分
数据库中查不到,返回空值,无页面。
(2)解决方法 :
- 对空值缓存:如果一个查询返回的数据为空(不管是数据是否不存在),我们仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟
- 设置可访问的名单(白名单):使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果访问id不在bitmaps里面,进行拦截,不允许访问。
- 采用布隆过滤器:相当于bitmaps,与2相同
- 进行实时监控:当发现Redis的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务
2 缓存击穿
(1)产生的原因和特点:key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端数据库加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端数据库压垮。这里针对的是一个非常“热点”的数据,这个key可能会在某些时间点被超高并发地访问。
(2)解决方案
1.预先设置热门数据:在redis高峰访问之前,把一些热门数据提前存入到redis里面,加大这些热门数据key的时长
2.实时调整:现场监控哪些数据热门,实时调整key的过期时长
3.使用锁---能解决,会造成性能问题。
3 缓存雪崩
(1)缓存雪崩指的是在极少时间段内redis里大量的key出现了过期的情况,这些key在数据库里还存在。此时若有大量并发请求过来,可能会瞬间把后端数据库压垮。缓存雪崩与缓存击穿的区别在于这里针对很多key缓存,前者则是某一个key。
(2)解决方案
- 构建多级缓存架构:nginx缓存 + redis缓存 +其他缓存(ehcache等),作为支撑。
- 使用锁或队列:用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况
- 设置过期标志更新缓存:记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际key的缓存。
- 将缓存失效时间分散开:比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。
4 分布式锁
随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多进程并且分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的Java API并不能提供分布式锁的能力。为了解决这个问题就需要一种跨JVM的互斥机制来控制共享资源的访问,这就是分布式锁要解决的问题!
(1)基于Redis缓存的分布式锁:效率最高。
······ Redis有很高的性能;
······Redis命令对此支持较好,实现起来比较方便
(2)过程:(上厕所,关锁,开锁,下一个人再来上厕所)
1. 多个客户端同时获取锁(setnx)
2. 获取成功,执行业务逻辑{从db获取数据,放入缓存},执行完成释放锁(del)
3. 其他客户端等待重试
(3)实现思想
······获取锁的时候,使用setnx加锁,并使用expire命令为锁添加一个超时时间,超过该时间则自动释放锁,锁的value值为一个随机生成的UUID,通过此在释放锁的时候进行判断。
······获取锁的时候还设置一个获取的超时时间,若超过这个时间则放弃获取锁。
······释放锁的时候,通过UUID判断是不是该锁,若是该锁,则执行delete进行锁释放。
(4)产生的问题并完善锁:
问题1:setnx刚好获取到锁,业务逻辑出现异常,导致锁无法释放。(上厕所一个人待太久,只能让他手动释放?)
解决方法:设置过期时间,自动释放锁
1. 首先想到通过expire设置过期时间(问题2:缺乏原子性—>如果在setnx和expire之间出现异常,锁也无法释放)
2. 在set时指定过期时间(推荐)---解决了问题1和问题2
问题3:可能会释放其他服务器的锁:图中a的服务器卡顿,锁过期后自动释放,b获得锁,但是a服务器恢复正常后删除b的锁。
解决方法:setnx获取锁时,设置一个指定的唯一值(例如:uuid);释放前获取这个值,判断是否自己的锁
问题4:缺乏原子性。
解决方法:使用LUA脚本的保证删除过程的原子性。