分布式缓存有哪些坑

在toC的系统之中,解决高并发场景下低延迟的问题,缓存是很重要的解决手段。多级缓存,数据异构,数据预处理都是相关的高性能方法论,那么使用分布式缓存会有哪些坑呢?

主要有如下三个坑需要填:

1. 缓存一致性

2. 缓存击穿

3. 缓存雪崩

缓存一致性

我们在引入缓存之后,首先要解决的就是数据源和缓存之间的缓存一致性问题,关于缓存写入有几种常用的方案:

- cache aside pattern

- cache through

- write through

等。

其实在一致性角度讨论也存在多个视角,session一致性,因果一致性,线性一致性等。

在我们真实场景中往往采用的解决方案是,数据写入db,监听binlog,数据格式化处理,通过mq异构到cache服务。这样的好处是不需要维护db和cache的两个分布式事务,使用db的acid机制保障了事务性,通过mq的持久性和重试解决了cache维护的事务性,这样在整个数据写入和缓存维护过程中只需要关注一个事务就可以了(cache维护的事务性)。

缓存击穿

击穿的意思是请求来了之后,我们在应用层没有拦住请求(cache miss了),以至于请求穿透到db层,如果存在大量缓存击穿,对于db压力会很大,如果db扛不住会导致雪崩的问题。所以缓存击穿解决是系统稳定性需要考虑的,也是高流量c端服务在使用缓存时首先需要想到的一个问题。

穿透的流量有两种:

1. 真实流量,但是由于cache失效导致了cache miss

2. 异常流量,爬虫或是恶意攻击,导致大量cache miss

针对于第一种情况,可以通过监控手段观察缓存命中和miss的情况,适当维护缓存,保障一定的命中率。还可以在cache miss之后放一个空。也可以采用“双key解决方案”,请求来了之后通过redis的setnx修改cache_time的时间,同时去db获取元数据,并发请求来了之后发现cache_time没有过期,会获取cache_data的数据(不管数据新老与否)。

针对于第二种情况,一般的方案就是“布隆过滤器”了,可以在单机缓存构造一个布隆过滤器,也可以基于redis实现一个分布式的布隆过滤器。

缓存雪崩

缓存雪崩是指由于大量的热数据设置了相同或接近的过期时间,导致缓存在某一时刻密集失效,大量请求全部转发到 DB,或者是某个冷数据瞬间涌入大量访问,这些查询在缓存 MISS 后,并发的将请求透传到 DB,DB 瞬时压力过载从而拒绝服务。

目前常见的预防缓存雪崩的解决方案,主要是通过对 key 的 TTL 时间加随机数,打散 key 的淘汰时间来尽量规避,但是不能彻底规避。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值