12.Reids6应用问题解决
12.1缓存穿透
12.1.2解决方案
一个一定是不存在的缓存以及在数据库中也查不到的数据,由于缓存时不命中时被动写的,并且处于容错的考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。
解决方案:
(1)对于空值缓存:
如果一个查询返回的数据为空(不管是数据是否不存在),我们仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不会超过5分钟。
(2)设置可访问的名单(白名单):
使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果id不在bitmap里面,进行拦截,不允许访问。
(3)采用布隆过滤器:
它实际是一个很长的二级制向量(位图)和一系列随机映射函数(哈希函数)。
(4)进行实时监控:
当发现Redis的命中率开始急速下降,需要排查访问的对象和访问数据,和运维人员配合,可以限制黑名单限制服务。
12.2缓存击穿
12.2.1问题描述
12.2.2解决方案
key可能会在某些时间点被查并发地访问,第一种非常“热点”的数据。这时候,需要考虑一个问题:缓存被”击穿“的问题。
解决问题:
(1)预先设置这个热门数据:
在redis高峰访问之前,把一些热门数据提前存入到redis种,加热这些热门数据key的时长。
(2)实时调整:
现场监控哪些数据热门,实时调整key的过期时长。
(3)使用锁:
1.就是在缓存失效的时候(判断拿出的值为空,而不是立即去load db)
2.先使用缓存工具的某些带成功操作返回值的操作(比如Redis的SETNX) (访问时加锁,访问不到,过一会再访问)
12.3缓存雪崩
12.3.1 问题描述
key对应的数据存在,但是在redis种过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这时候大并发的请求可能会瞬间把后端DB压垮。
缓存雪崩(大量key)与缓存击穿(某一个热门key)的区别在于这里针对很多key缓存,前者则是某一个key正常访问。
12.3.2解决方案
(1)构建多级缓存架构:
nginx缓存 + redis缓存 + 其他缓存(ehcache等)
(2)使用锁或队列:
用加锁或者队列的方式保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适合高并发情况。
(3)设置过期标志更新缓存:
记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际的key缓存。
(4)将缓存失效时间分散开来:
比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件了。
12.4分布式锁
12.4.1问题描述
随着业务发展的需要,原单体机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多线程并且分布在不同机器上,这将使单机部署情况下的并发控制锁策略失效,单纯的javaApI并不能提供分布式锁的能力。但是为了解决这个问题就需要一种跨JVM的互斥机制来控制共享资源的访问,这就是分布式锁要解决的问题!
分布式锁主流的实现方案:
1.基于数据库实现分布式锁。
2.基于缓存(Redis等)
3.基于Zookeeper
每一种分布式锁解决方案都有各自的优缺点:
1.性能:redis最高
2.可靠性:zookeeper最高
这里我们就基于redis实现分布式锁。
12.4.2 优化之设置锁的过期时间
12.4.3优化之UUID防误删
12.4.4优化之LUA脚本保证删除的原子性