5、一线大厂Redis高并发缓存架构实战与性能优化

在这里插入图片描述

1、中小公司Redis缓存架构及线上问题分析

简单缓存
在这里插入图片描述

2、缓存数据冷热分离

比如说京东、淘宝的每天查询的商品数据不到1%,其他大量的商品缓存数据就是对缓存的一种浪费。所以在维护缓存的时候,对缓存数据加一个超时时间,比如1天。读取缓存的时候给缓存延期。
在这里插入图片描述

3、缓存击穿/缓存失效

比如淘宝、京东小二在上架商品的时候是批量上架,过期时间可能是一致,导致一批商品缓存数据同时失效。
给过期时间加一个随机数(以一个固定时间为基数),来避免同一时间大量缓存失效
在这里插入图片描述
在这里插入图片描述

4、缓存穿透

在这里插入图片描述

4.1、缓存空对象

放一个空缓存,并且设置过期时间。几分钟即可,可以再加一个延期
在这里插入图片描述

4.2、布隆过滤器

对于恶意攻击,向服务器请求大量不存在的数据造成的缓存穿透,还可以用布隆过滤器先做一次过滤,对于不存在的数据布隆过滤器一般都能够过滤掉,不让请求再往后端发送。当布隆过滤器说某个值存在时,这个值可能不存在;当它说不存在时,那就肯定不存在
在这里插入图片描述
布隆过滤器就是一个大型的位数组和几个不一样的无偏 hash 函数。所谓无偏就是能够把元素的 hash 值算得比较均匀。
向布隆过滤器中添加 key 时,会使用多个 hash 函数对 key 进行 hash 算得一个整数索引值然后对位数组长度进行取模运算得到一个位置,每个 hash 函数都会算得一个不同的位置。再把位数组的这几个位置都置为 1 就完成了 add 操作。
向布隆过滤器询问 key 是否存在时,跟 add 一样,也会把 hash 的几个位置都算出来,看看位数组中这几个位置是否都为 1,只要有一个位为 0,那么说明布隆过滤器中这个key 不存在。如果都是 1,这并不能说明这个 key 就一定存在,只是极有可能存在,因为这些位被置为 1 可能是因为其它的 key 存在所致。如果这个位数组长度比较大,存在概率就会很大,如果这个位数组长度比较小,存在概率就会降低。
这种方法适用于数据命中不高、 数据相对固定、 实时性低(通常是数据集较大) 的应用场景, 代码维护较为复杂, 但是缓存空间占用很少
在这里插入图片描述
在这里插入图片描述
注意:布隆过滤器不能删除数据,如果要删除得重新初始化数据

5、突发性热点缓存重建导致系统压力暴增问题分析|| 热点缓存key重建优化

比如带货直播将一些冷门商品上架,没有建立缓存,大量请求同时过来,很可能将数据库打穿

双重检测锁(分布式锁)
在这里插入图片描述
在这里插入图片描述

6、缓存与数据库双写不一致问题

在这里插入图片描述

在这里插入图片描述

解决方法

更新和查询的时候加分布式锁
在这里插入图片描述

7、大促压力暴增导致分布式锁串行争用问题优化实战

解决方法:读写锁
在这里插入图片描述
在这里插入图片描述

7.1、读锁源码

在这里插入图片描述

7.2、写锁源码

在这里插入图片描述

8、大促压力暴增导致分布式锁串行争用问题优化实战

分布式锁串行转并发优化,

大部分交易在1s中可以完成,锁失效,直接读取缓存,不再持有锁

在这里插入图片描述
问题:如果请求在1s内没有处理完,大量请求直接到数据库,把数据库打穿

9、一次微博明星热点事件导致系统崩溃原因分析

缓存雪崩

在这里插入图片描述

10、利用多级缓存架构解决Redis线上集群缓存雪崩问题

在这里插入图片描述
在这里插入图片描述
互联网中有热点推荐系统

Redis开发规范与性能优化

一、键值设计
(1)【建议】: 可读性和可管理性
以业务名(或数据库名)为前缀(防止key冲突),用冒号分隔,比如业务名:表名:id
trade:order:1

(2)【建议】:简洁性
保证语义的前提下,控制key的长度,当key较多时,内存占用也不容忽视,例如:
user:{uid}:friends:messages:{mid} 简化为 u:{uid}🇫🇷m:{mid}

(3)【强制】:不要包含特殊字符
反例:包含空格、换行、单双引号以及其他转义字符

  1. value设计
    在这里插入图片描述
    bigkey的危害:
    1.导致redis阻塞
    2.网络拥塞
    bigkey也就意味着每次获取要产生的网络流量较大,假[[设一个bigkey为1MB,客户端每秒访问量为1000,那么每秒产生1000MB的流量,对于普通的千兆网卡(按照字节算是128MB/s)的服务器来说简直是灭顶之灾,而且一般服务器会采用单机多实例的方式来部署,也就是说一个bigkey可能会对其他实例也造成影响,其后果不堪设想。
  2. 过期删除
    有个bigkey,它安分守己(只执行简单的命令,例如hget、lpop、zscore等),但它设置了过期时间,当它过期后,会被删除,如果没有使用Redis 4.0的过期异步删除(lazyfree-lazy-expire yes),就会存在阻塞Redis的可能性。

bigkey的产生:
一般来说,bigkey的产生都是由于程序设计不当,或者对于数据规模预料不清楚造成的,来看几个例子:
(1) 社交类:粉丝列表,如果某些明星或者大v不精心设计下,必是bigkey。
(2) 统计类:例如按天存储某项功能或者网站的用户集合,除非没几个人用,否则必是bigkey。
(3) 缓存类:将数据从数据库load出来序列化放到Redis里,这个方式非常常用,但有两个地方需要注意,第一,是不是有必要把所有字段都缓存;第二,有没有相关关联的数据,有的同学为了图方便把相关数据都存一个key下,产生bigkey。

如何优化bigkey


  1. big list: list1、list2、…listN
    big hash:可以讲数据分段存储,比如一个大的key,假设存了1百万的用户数据,可以拆分成200个key,每个key下面存放5000个用户数据
  2. 如果bigkey不可避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要hmget,而不是hgetall),删除也是一样,尽量使用优雅的方式来处理。

(2)【推荐】:选择适合的数据类型。
例如:实体类型(要合理控制和使用数据结构,但也要注意节省内存和性能之间的平衡)
反例:
set user:1:name tom
set user:1:age 19
set user:1:favor football
正例:
hmset user:1 name tom age 19 favor football

3.【推荐】:控制key的生命周期,redis不是垃圾桶。
建议使用expire设置过期时间(条件允许可以打散过期时间,防止集中过期)。

二、命令使用
1.【推荐】 O(N)命令关注N的数量
例如hgetall、lrange、smembers、zrange、sinter等并非不能使用,但是需要明确N的值。有遍历的需求可以使用hscan、sscan、zscan代替。

2.【推荐】:禁用命令
禁止线上使用keys、flushall、flushdb等,通过redis的rename机制禁掉命令,或者使用scan的方式渐进式处理。

3.【推荐】合理使用select
redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是单线程处理,会有干扰。

4.【推荐】使用批量操作提高效率
原生命令:例如mget、mset。
非原生命令:可以使用pipeline提高效率。
但要注意控制一次批量操作的元素个数(例如500以内,实际也和元素字节数有关)。
注意两者不同:

  1. 原生命令是原子操作,pipeline是非原子操作。
  2. pipeline可以打包不同的命令,原生命令做不到
  3. pipeline需要客户端和服务端同时支持。

5.【建议】Redis事务功能较弱,不建议过多使用,可以用lua替代

三、客户端使用

1.【推荐】
避免多个应用使用一个Redis实例
正例:不相干的业务拆分,公共数据做服务化。

2.【推荐】
使用带有连接池的数据库,可以有效控制连接,同时提高效率,标准使用方式:
连接池参数含义:
在这里插入图片描述
在这里插入图片描述

List<Jedis> minIdleJedisList = new ArrayList<Jedis>(jedisPoolConfig.getMinIdle());

for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
    Jedis jedis = null;
    try {
        jedis = pool.getResource();
        minIdleJedisList.add(jedis);
        jedis.ping();
    } catch (Exception e) {
        logger.error(e.getMessage(), e);
    } finally {
        //注意,这里不能马上close将连接还回连接池,否则最后连接池里只会建立1个连接。。
        //jedis.close();
    }
}
//统一将预热的连接还回连接池
for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
    Jedis jedis = null;
    try {
        jedis = minIdleJedisList.get(i);
        //将连接归还回连接池
        jedis.close();
    } catch (Exception e) {
        logger.error(e.getMessage(), e);
    } finally {
    }
}

Redis的三种过期策略

1、被动删除/惰性删除:是Redis默认的过期键删除策略
当读/写一个已经过期的key时,会触发惰性删除策略,直接删除这个过期的key。并返回空值,这种策略的优点是删除操作在需要时进行,减少了不必要的删除开销。但是如果大量过期键没有被再次访问过,这些键会一直占据内存。
2、定期删除/主动删除:
由于惰性删除策略无法保证冷数据被及时删除,一直占用内存,所以Redis会定期主动淘汰一批已经过期的key。
3、当前已用内存超过maxmemory限定时,触发主动清理策略,主动清理策略在Redis4.0之前一共实现6种内存淘汰策略,在之后用增加了2中。

Redis内存淘汰策略:

针对设置了过期时间的key做处理:
1、volatile-ttl:在筛选时,会针对设置了过期时间的键值对,根据过期时间的先后进行删除,越早过期的越先被删除;
2、volatile-random:在设置了过期时间的键值对中,进行随机删除;
3、volatile-lru:会使用LRU算法筛选设置了过期时间的键值对删除;
4、volatile-lfu:会使用LFU算法筛选设置了过期时间的键值对删除;

针对所有key做处理:
5、allkeys-random:从键值对中随机选择并删除数据;
6、allkeys-lru:使用LRU算法在所有数据中进行筛选删除;
7、allkeys-lfu:使用LFU算法在所有数据中进行筛选删除;
不处理:
noeviction:不会剔除任何数据,拒绝所有写入操作并返回客户端错误信息,此时Redis只响应读操作

LRU算法(Least Recently Used,最近最少使用)
淘汰很久没有被访问的数据,以最近一次访问时间作为参考
LFU算法(Lease Frequently Used,最不经常使用)
淘汰最近一段时间访问次数最少得数据,以次数作为参考

当存在热点数据时,LRU的效率好,但是偶发性的、周期性的批量操作会导致LRU的命中率急剧下降,混存污染情况比较严重,这只使用LFU可能会更好点。

根据自身业务类型,配置好maxmemory-policy(默认是noeviction),推荐使用volatile-lru,如果不设置最大内存,当Redis内存超出物理内存限制时,内存的数据会开始和磁盘产生频繁的交换(swap),Redis性能会极具下降。
当Redis运行在主从模式时,只有主节点才会执行过期删除策略,然后把删除操作“del key”同步到从节点删除数据

  • 25
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值