05-redis缓存设计及性能优化

一、多级缓存架构

image.png

二、缓存设计

2.1 缓存穿透

缓存穿透是指查询一个根本不存在的数据, 缓存层和存储层都不会命中, 通常出于容错的考虑, 如果从存储层查不到数据则不写入缓存层。 缓存穿透将导致不存在的数据每次请求都要到存储层去查询, 失去了缓存保护后端存储的意义。
造成缓存穿透的基本原因有两个:
第一, 自身业务代码或者数据出现问题。
第二, 一些恶意攻击、 爬虫等造成大量空命中。
image.png

解决方案

缓存空对象

空对象,需要设置过期时间,后台是有可能会添加新的商品,是有可能会存在的

@Data
public class NullEntity implements Serializable {


}

@GetMapping("/getById-1")
public User getById_1(@RequestParam("id") String id) {
    Object object = redisTemplate.opsForValue().get(REDIS_USER_KEY + id);
    if (object != null) {
        // 检验该对象是否为缓存空对象,是则直接返回null
        if (object instanceof NullEntity) {
            return null;
        }
        return (User) object;
    } else {
        log.info("查询数据库");
        User user = userService.getById(id);
        if (Objects.nonNull(user)) {
            redisTemplate.opsForValue().set(REDIS_USER_KEY + id, user);
        } else {
            redisTemplate.opsForValue().set(REDIS_USER_KEY + id, new NullEntity(), 60, TimeUnit.SECONDS);
        }
        return user;
    }
}

缓存空对象会带来比较大的问题,就是缓存中会存在很多空对象,占用内存的空间,浪费资源,一个解决的办法就是设置空对象的较短的过期时间

布隆过滤器

对于恶意攻击,向服务器请求大量不存在的数据造成的缓存穿透,还可以用布隆过滤器先做一次过滤,对于不 存在的数据布隆过滤器一般都能够过滤掉,不让请求再往后端发送。当布隆过滤器说某个值存在时,这个值可 能不存在;当它说不存在时,那就肯定不存在。
image.png

<dependency>
  <groupId>org.redisson</groupId>
  <artifactId>redisson</artifactId>
  <version>3.8.2</version>
</dependency>

使用:

package com.zengqingfa.springboot.mybatis.demo;

import org.redisson.Redisson;
import org.redisson.api.RBloomFilter;
import org.redisson.api.RedissonClient;
import org.redisson.config.Config;

public class RedissonBloomFilter {

    public static void main(String[] args) {
        Config config = new Config();
        config.useSingleServer().setAddress("redis://localhost:6379");
        //构造Redisson
        RedissonClient redisson = Redisson.create(config);
        RBloomFilter<String> bloomFilter = redisson.getBloomFilter("nameList");
        //初始化布隆过滤器:预计元素为100000000L,误差率为3%,根据这两个参数会计算出底层的bit数组大小
        bloomFilter.tryInit(100000000L, 0.03);
        //将tianqi插入到布隆过滤器中
        bloomFilter.add("tianqi");
        //判断下面号码是否在布隆过滤器中
        System.out.println(bloomFilter.contains("zhangsan"));//false
        System.out.println(bloomFilter.contains("lisi"));//false
        System.out.println(bloomFilter.contains("wangwu"));//true
    }
}

2.2 缓存击穿

缓存击穿是指一个Key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个Key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个完好无损的桶上凿开了一个洞。
比如统一在某天上架1个秒杀商品,失效实际是5分钟,如果5分钟之后失效,有上百万的请求全部打在数据库上。批量上架秒杀商品

解决方案

1.设置热点数据永远不过期
2.互斥锁
我们可以在第一个查询数据的请求上使用一个互斥锁来锁住它。
其他的线程走到这一步拿不到锁就等着,等第一个线程查询到了数据,然后做缓存。后面的线程进来发现已经有缓存了,就直接走缓存。

@GetMapping("/getById-4")
public User getById_4(@RequestParam("id") String id) {
    Object object = redisTemplate.opsForValue().get(REDIS_USER_KEY + id);
    if (object == null) {
        User user = null;
        RLock lock = redissonClient.getLock(REDIS_USER_LOCK_KEY + id);
        try {
            // 1. 最常见的使用方法
            //lock.lock();

            // 2. 支持过期解锁功能,10秒钟以后自动解锁, 无需调用unlock方法手动解锁
            //lock.lock(10, TimeUnit.SECONDS);

            // 3. 尝试加锁,最多等待3秒,上锁以后10秒自动解锁
            boolean flag = lock.tryLock(3, 10, TimeUnit.SECONDS);
            if (flag) {
                log.info("查询数据库");
                user = userService.getById(id);
                if (Objects.nonNull(user)) {
                    redisTemplate.opsForValue().set(REDIS_USER_KEY + id, user);
                }
                return user;
            }
        } catch (Exception e) {
            log.error("e={}", e.getMessage());
        } finally {
            lock.unlock();
        }
        return user;
    }
    return (User) object;
}

2.3 缓存雪崩

因为缓存的问题,缓存宕机或者未预估到服务的并发量问题,超出了服务的访问上限,导致的问题。
1)当某一时刻发生大规模的缓存失效的情况,会有大量的请求进来直接打到DB上面,未预料到服务的高并发情况
2)缓存雪崩指的是缓存层支撑不住或宕掉后, 流量会像奔逃的野牛一样, 打向后端存储层。 由于缓存层承载着大量请求, 有效地保护了存储层, 但是如果缓存层由于某些原因不能提供服务(比如超大并 发过来,缓存层支撑不住,或者由于缓存设计不好,类似大量请求访问bigkey,导致缓存能支撑的并发急剧下降), 于是大量请求都会打到存储层, 存储层的调用量会暴增, 造成存储层也会级联宕机的情况。

解决方案

预防和解决缓存雪崩问题, 可以从以下三个方面进行着手。
1) 保证缓存层服务高可用性,比如使用Redis Sentinel或Redis Cluster。
2) 依赖隔离组件为后端限流熔断并降级。比如使用Sentinel或Hystrix限流降级组件。 比如服务降级,我们可以针对不同的数据采取不同的处理方式。当业务应用访问的是非核心数据(例如电商商 品属性,用户信息等)时,暂时停止从缓存中查询这些数据,而是直接返回预定义的默认降级信息、空值或是 错误提示信息;当业务应用访问的是核心数据(例如电商商品库存)时,仍然允许查询缓存,如果缓存缺失, 也可以继续通过数据库读取。
3) 提前演练。 在项目上线前, 演练缓存层宕掉后, 应用以及后端的负载情况以及可能出现的问题, 在此基础上做一些预案设定。

2.4 热点缓存key重建优化

场景:缓存保存的都是热点数据,大v搞一个直播,冷数据瞬间变成热点数据,全部穿透到数据库,极端情况下会打崩数据库。
开发人员使用“缓存+过期时间”的策略既可以加速数据读写, 又保证数据的定期更新, 这种模式基本能够满 足绝大部分需求。 但是有两个问题如果同时出现, 可能就会对应用造成致命的危害:

  • 当前key是一个热点key(例如一个热门的娱乐新闻),并发量非常大。
  • 重建缓存不能在短时间完成, 可能是一个复杂计算, 例如复杂的SQL、 多次IO、 多个依赖等。

在缓存失效的瞬间, 有大量线程来重建缓存, 造成后端负载加大, 甚至可能会让应用崩溃。 要解决这个问题主要就是要避免大量线程同时重建缓存。 我们可以利用互斥锁来解决,此方法只允许一个线程重建缓存, 其他线程等待重建缓存的线程执行完, 重新从缓存获取数据即可。

String get(String key) { 
    // 从Redis中获取数据 
    String value = redis.get(key); 
    // 如果value为空, 则开始重构缓存 
    if (value == null) { 
    // 只允许一个线程重建缓存, 使用nx, 并设置过期时间ex 
    String mutexKey = "mutext:key:" + key; 
    if (redis.set(mutexKey, "1", "ex 180", "nx")) { 
        // 从数据源获取数据 
         value = db.get(key); 
         // 回写Redis, 并设置过期时间 
         redis.setex(key, timeout, value); 
         // 删除key_mutex 
         redis.delete(mutexKey); 
     }// 其他线程休息50毫秒后重试 
     else { 
         Thread.sleep(50); 
         get(key);   
     } 
     return value; 
 }

2.5 缓存与数据库双写不一致

在大并发下,同时操作数据库与缓存会存在数据不一致性问题

双写不一致情况

image.png

读写并发不一致

image.png

解决方案:

1、对于并发几率很小的数据(如个人维度的订单数据、用户数据等),这种几乎不用考虑这个问题,很少会发生 缓存不一致,可以给缓存数据加上过期时间,每隔一段时间触发读的主动更新即可。
2、就算并发很高,如果业务上能容忍短时间的缓存数据不一致(如商品名称,商品分类菜单等),缓存加上过期 时间依然可以解决大部分业务对于缓存的要求。
3、如果不能容忍缓存数据不一致,可以通过加读写锁保证并发读写或写写的时候按顺序排好队,读读的时候相当于无锁。 可以使用读写锁
4、也可以用阿里开源的canal通过监听数据库的binlog日志及时的去修改缓存,但是引入了新的中间件,增加 了系统的复杂度。
image.png

延迟双删:删除缓存的时候,在睡眠50ms,在删除一次。其他线程卡顿的情况非常少,为了解决这种小概率的事件,导致每个请求都停顿50ms,是不合适的。不推荐使用。

三、开发规范与性能优化

3.1 键值设计

key名设计

(1)【建议】: 可读性和可管理性 以业务名(或数据库名)为前缀(防止key冲突),用冒号分隔,
比如业务名:表名:id 1 trade:order:1
(2)【建议】:简洁性 保证语义的前提下,控制key的长度,当key较多时,内存占用也不容忽视,
例如: 1 user:{uid}:friends:messages:{mid} 简化为 u:{uid}🇫🇷m:{mid}
(3)【强制】:不要包含特殊字符 反例:包含空格、换行、单双引号以及其他转义字符

value设计

(1)【强制】:拒绝bigkey(防止网卡流量、慢查询)
在Redis中,一个字符串最大512MB,一个二级数据结构(例如hash、list、set、zset)可以存 储大约40亿个(2^32-1)个元素,但实际中如果下面两种情况,我就会认为它是bigkey。
1. 字符串类型:它的big体现在单个value值很大,一般认为超过10KB就是bigkey。
2. 非字符串类型:哈希、列表、集合、有序集合,它们的big体现在元素个数太多。 一般来说,string类型控制在10KB以内,hash、list、set、zset元素个数不要超过5000。
反例:一个包含200万个元素的list。 非字符串的bigkey,不要使用del删除,使用hscan、sscan、zscan方式渐进式删除,同时要注 意防止bigkey过期时间自动删除问题(例如一个200万的zset设置1小时过期,会触发del操作,造成阻塞)

bigkey的危害

1.导致redis阻塞
2.网络拥塞 bigkey也就意味着每次获取要产生的网络流量较大,假设一个bigkey为1MB,客户端每秒访问 量为1000,那么每秒产生1000MB的流量,对于普通的千兆网卡(按照字节算是128MB/s)的服务 器来说简直是灭顶之灾,而且一般服务器会采用单机多实例的方式来部署,也就是说一个bigkey 可能会对其他实例也造成影响,其后果不堪设想。
3. 过期删除 有个bigkey,它安分守己(只执行简单的命令,例如hget、lpop、zscore等),但它设置了过 期时间,当它过期后,会被删除,如果没有使用Redis 4.0的过期异步删除(lazyfree-lazy- expire yes),就会存在阻塞Redis的可能性。

bigkey的产生

一般来说,bigkey的产生都是由于程序设计不当,或者对于数据规模预料不清楚造成的,来看几 个例子:
(1) 社交类:粉丝列表,如果某些明星或者大v不精心设计下,必是bigkey。
(2) 统计类:例如按天存储某项功能或者网站的用户集合,除非没几个人用,否则必是bigkey。
(3) 缓存类:将数据从数据库load出来序列化放到Redis里,这个方式非常常用,但有两个地方需 要注意,第一,是不是有必要把所有字段都缓存;第二,有没有相关关联的数据,有的同学为了 图方便把相关数据都存一个key下,产生bigkey。

如何优化bigkey

  1. big list: list1、list2、…listN big hash:可以讲数据分段存储,比如一个大的key,假设存了1百万的用户数据,可以拆分成 200个key,每个key下面存放5000个用户数据
    2. 如果bigkey不可避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要 hmget,而不是hgetall),删除也是一样,尽量使用优雅的方式来处理。
    (2)【推荐】:选择适合的数据类型。
    例如:实体类型(要合理控制和使用数据结构,但也要注意节省内存和性能之间的平衡)
    反例:
set user:1:name tom 
set user:1:age 19 
set user:1:favor football

正例:

hmset user:1 name tom age 19 favor football

3.【推荐】:控制key的生命周期,redis不是垃圾桶。 建议使用expire设置过期时间(条件允许可以打散过期时间,防止集中过期)。

3.2 命令使用

1.【推荐】 O(N)命令关注N的数量 例如hgetall、lrange、smembers、zrange、sinter等并非不能使用,但是需要明确N的值。有 遍历的需求可以使用hscan、sscan、zscan代替。
2.【推荐】:禁用命令 禁止线上使用keys、flushall、flushdb等,通过redis的rename机制禁掉命令,或者使用scan的 方式渐进式处理。
3.【推荐】合理使用select redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还 是单线程处理,会有干扰。
4.【推荐】使用批量操作提高效率

原生命令:例如mget、mset。 
非原生命令:可以使用pipeline提高效率。

但要注意控制一次批量操作的元素个数(例如500以内,实际也和元素字节数有关)。
注意两者不同:

1. 原生是原子操作,pipeline是非原子操作。 
2. pipeline可以打包不同的命令,原生做不到
3. pipeline需要客户端和服务端同时支持。

5.【建议】Redis事务功能较弱,不建议过多使用,可以用lua替代

3.3 客户端使用

1.【推荐】 避免多个应用使用一个Redis实例 正例:不相干的业务拆分,公共数据做服务化。
2.【推荐】 使用带有连接池的数据库,可以有效控制连接,同时提高效率,标准使用方式:

package com.zengqingfa.test;

import org.junit.Test;
import redis.clients.jedis.*;

import java.util.Arrays;
import java.util.List;

/**
 * @author zengqingfa
 * @className JedisTest
 * @description
 * @create 2021/11/21 15:42
 */
public class JedisTest {

    @Test
    public void test() {
        JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();
        jedisPoolConfig.setMaxIdle(10);
        jedisPoolConfig.setMaxTotal(20);
        jedisPoolConfig.setMinIdle(5);
        // timeout,这里既是连接超时又是读写超时,从Jedis 2.8开始有区分connectionTimeout和soTimeout的构造函数
        JedisPool jedisPool = new JedisPool(jedisPoolConfig, "47.96.114.225", 6379, 3000, null);
        Jedis jedis = null;
        try {
            //从redis连接池里拿出一个连接执行命令
            jedis = jedisPool.getResource();
            //执行命令

        } catch (Exception e) {
            e.printStackTrace();
            logger.error("op key {} error: " + e.getMessage(), key, e);
        } finally {
            //注意这里不是关闭连接,在JedisPool模式下,Jedis会被归还给资源池。
            if (jedis != null) {
                jedis.close();
            }

        }
    }
}

连接池参数含义:

序号参数名含义默认值使用建议
1maxTotal资源池中最大连接数8
2maxIdle资源池允许最大空闲 的连接数8
3minIdle资源池确保最少空闲 的连接数0
4blockWhenExhausted当资源池用尽后,调 用者是否要等待。只 有当为true时,下面 的maxWaitMillis才会生效true建议使用默认值
5maxWaitMillis当资源池连接用尽 后,调用者的最大等 待时间(单位为毫秒)-1:表示永不超时不建议使用默认值
6testOnBorrow向资源池借用连接时 是否做连接有效性检 测(ping),无效连接 会被移除false业务量很大时候建议
设置为false(多一次
ping的开销)。
7testOnReturn向资源池归还连接时 是否做连接有效性检 测(ping),无效连接 会被移除false业务量很大时候建议
设置为false(多一次
ping的开销)。
8jmxEnabled是否开启jmx监控,可 用于监控true建议开启,但应用本
身也要开启

优化建议:
1)maxTotal最大连接数
早期的版本叫maxActive 实际上这个是一个很难回答的问题,
考虑的因素比较多:

  • 业务希望Redis并发量
  • 客户端执行命令时间
  • Redis资源:例如 nodes(例如应用个数) * maxTotal 是不能超过redis的最大连接数 maxclients。
  • 资源开销:例如虽然希望控制空闲连接(连接池此刻可马上使用的连接),但是不希望因 为连接池的频繁释放创建连接造成不必靠开销。

以一个例子说明,假设: 一次命令时间(borrow|return resource + Jedis执行命令(含网络) )的平均耗时约为 1ms,一个连接的QPS大约是1000 业务期望的QPS是50000 那么理论上需要的资源池大小是50000 / 1000 = 50个。但事实上这是个理论值,还要考虑到要 比理论值预留一些资源,通常来讲maxTotal可以比理论值大一些。
但这个值不是越大越好,一方面连接太多占用客户端和服务端资源,另一方面对于Redis这种高 QPS的服务器,一个大命令的阻塞即使设置再大资源池仍然会无济于事。
2)maxIdle和minIdle maxIdle
实际上才是业务需要的最大连接数,maxTotal是为了给出余量,所以maxIdle不要设置 过小,否则会有new Jedis(新连接)开销。** 连接池的最佳性能是maxTotal = maxIdle,这样就避免连接池伸缩带来的性能干扰**。但是如果 并发量不大或者maxTotal设置过高,会导致不必要的连接资源浪费。一般推荐maxIdle可以设置 为按上面的业务期望QPS计算出来的理论连接数,maxTotal可以再放大一倍。 minIdle(最小空闲连接数),与其说是最小空闲连接数,不如说是"至少需要保持的空闲连接 数",在使用连接的过程中,如果连接数超过了minIdle,那么继续建立连接,如果超过了 maxIdle,当超过的连接执行完业务后会慢慢被移出连接池释放掉。 如果系统启动完马上就会有很多的请求过来,那么可以给redis连接池做预热,比如快速的创建一 些redis连接,执行简单命令,类似ping(),快速的将连接池里的空闲连接提升到minIdle的数 量。
连接池预热示例代码:

List<Jedis> minIdleJedisList = new ArrayList<Jedis>(jedisPoolConfig.getMinIdle());
for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
    Jedis jedis = null;
    try {
        jedis = pool.getResource();
        minIdleJedisList.add(jedis);
        jedis.ping();//建立与redis的连接,不归还,下次ping的时候会创建新的连接
    } catch (Exception e) {
        logger.error(e.getMessage(), e);
    } finally {
        //注意,这里不能马上close将连接还回连接池,否则最后连接池里只会建立1个连接。。 
        //jedis.close(); 
    }
}
//统一将预热的连接还回连接池 
for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
    Jedis jedis = null;
    try {
        jedis = minIdleJedisList.get(i);
        //将连接归还回连接池 22 jedis.close(); 
    } catch (Exception e) {
        logger.error(e.getMessage(), e);
    } finally {
    }
}

总之,要根据实际系统的QPS和调用redis客户端的规模整体评估每个节点所使用的连接池大小。
3.【建议】 高并发下建议客户端添加熔断功能(例如sentinel、hystrix)
4.【推荐】 设置合理的密码,如有必要可以使用SSL加密访问
5.【建议】 Redis对于过期键有三种清除策略:
1. 被动删除:当读/写一个已经过期的key时,会触发惰性删除策略,直接删除掉这个过期 key
2. 主动删除:由于惰性删除策略无法保证冷数据被及时删掉,所以Redis会定期主动淘汰一 批已过期的key
3. 当前已用内存超过maxmemory限定时,触发主动清理策略
主动清理策略在Redis 4.0 之前一共实现了 6 种内存淘汰策略,在 4.0 之后,又增加了 2 种策 略,总共8种:
a) 针对设置了过期时间的key做处理:
1. volatile-ttl:在筛选时,会针对设置了过期时间的键值对,根据过期时间的先后进行删 除,越早过期的越先被删除。
2. volatile-random:就像它的名称一样,在设置了过期时间的键值对中,进行随机删除。
3. volatile-lru:会使用 LRU 算法筛选设置了过期时间的键值对删除。
4. volatile-lfu:会使用 LFU 算法筛选设置了过期时间的键值对删除。
b) 针对所有的key做处理:
5. allkeys-random:从所有键值对中随机选择并删除数据。
6. allkeys-lru:使用 LRU 算法在所有数据中进行筛选删除。
7. allkeys-lfu:使用 LFU 算法在所有数据中进行筛选删除。
c) 不处理:
8. noeviction:不会剔除任何数据,拒绝所有写入操作并返回客户端错误信息"(error) OOM command not allowed when used memory",此时Redis只响应读操作。

LRU 算法(Least Recently Used,最近最少使用)

淘汰很久没被访问过的数据,以最近一次访问时间作为参考。

LFU 算法(Least Frequently Used,最不经常使用)

淘汰最近一段时间被访问次数最少的数据,以次数作为参考。
当存在热点数据时,LRU的效率很好,但偶发性的、周期性的批量操作会导致LRU命中率急剧下 降,缓存污染情况比较严重。这时使用LFU可能更好点。
根据自身业务类型,配置好maxmemory-policy(默认是noeviction),推荐使用volatile-lru。如 果不设置最大内存,当 Redis 内存超出物理内存限制时,内存的数据会开始和磁盘产生频繁的交 换 (swap),会让 Redis 的性能急剧下降。 当Redis运行在主从模式时,只有主结点才会执行过期删除策略,然后把删除操作”del key”同 步到从结点删除数据。
sed,最不经常使用)
淘汰最近一段时间被访问次数最少的数据,以次数作为参考。
当存在热点数据时,LRU的效率很好,但偶发性的、周期性的批量操作会导致LRU命中率急剧下 降,缓存污染情况比较严重。这时使用LFU可能更好点。
根据自身业务类型,配置好maxmemory-policy(默认是noeviction),推荐使用volatile-lru。如 果不设置最大内存,当 Redis 内存超出物理内存限制时,内存的数据会开始和磁盘产生频繁的交 换 (swap),会让 Redis 的性能急剧下降。 当Redis运行在主从模式时,只有主结点才会执行过期删除策略,然后把删除操作”del key”同 步到从结点删除数据。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值