Redis缓存设计与性能优化

众所周知,redis作为缓存,其目的在于减轻客户端大量请求发送到服务端时,对服务端查询数据库造成的压力。

缓存问题

缓存穿透

指的是查询一个数据,在缓存层和存储层都无法找到,通常出于容错的考虑, 如果从存储层查不到数据则不写入缓存层。

影响

缓存穿透将导致不存在的数据每次请求都要到存储层去查询, 失去了缓存保护后端存储的意义。

造成缓存穿透的基本原因

  • 自身业务代码或者数据出现问题
  • 一些恶意攻击、 爬虫等造成大量空命中

解决方法

缓存空对象

其处理方式为,当一个请求从缓存中获取不到数据,但是可以从数据库中获取的时候,在从数据库拿到数值后,将其写入到缓存中以便其他请求直接从缓存中获取,同时,若存储层(数据库)拿到的数据为空值,还需要设置一个过期时间,以防止其它实际对该key的写入被覆盖。

   String get( key) { 
   // 从缓存中获取数据 
   String cacheValue = cache.get(key); 
   // 缓存为空 
   if (StringUtils.isBlank(cacheValue)) { 
   // 从存储中获取 
   String storageValue = storage.get(key); 
   cache.set(key, storageValue); 
   // 如果存储数据为空, 需要设置一个过期时间(300秒)
    if (storageValue == null) { 
    cache.expire(key, 60 * 5); 
    } 
    return storageValue; 
    } else { 
    // 缓存非空 
    return cacheValue; 
    } 
    }

布隆过滤器

对于恶意攻击,向服务器请求大量不存在的数据造成的缓存穿透,还可以用布隆过滤器先做一次过滤,对于不存在的数据布隆过滤器一般都能够过滤掉,不让请求再往后端发送。当布隆过滤器说某个值存在时,这个值可能不存在;当它说不存在时,那就肯定不存在。

布隆过滤器就是一个大型的位数组(发生hash冲突的可能性非常低)和几个不一样的无偏 hash 函数。所谓无偏就是能够把元素的 hash 值算得比较均匀。

向布隆过滤器中添加 key 时,会使用多个 hash 函数对 key 进行 hash 算得一个整数索引值然后对位数组长度进行取模运算得到一个位置,每个 hash 函数都会算得一个不同的位置。再把位数组的这几个位置都置为 1 就完成了 add 操作。

向布隆过滤器询问 key 是否存在时,跟 add 一样,也会把 hash 的几个位置都算出来,看看位数组中这几个位置是否都为 1,只要有一个位为 0,那么说明布隆过滤器中这个key 不存在。如果都是 1,这并不能说明这个key 就一定存在,只是极有可能存在,因为这些位被置为 1 可能是因为其它的 key 存在所致。如果这个位数组比较稀疏,这个概率就会很大,如果这个位数组比较拥挤,这个概率就会降低。

这种方法适用于数据命中不高、 数据相对固定、 实时性低(通常是数据集较大) 的应用场景, 代码维护较为复杂, 但是缓存空间占用很少。

引入jra

        <dependency>
            <groupId>org.redisson</groupId>
            <artifactId>redisson</artifactId>
            <version>3.6.5</version>
        </dependency>

    public static void main(String[] args) {
        Config config = new Config();
        config.useSingleServer().setAddress("redis://localhost:6379");
        //构造Redisson
        RedissonClient redisson = Redisson.create(config);

        RBloomFilter<String> bloomFilter = redisson.getBloomFilter("nameList");
        //初始化布隆过滤器:预计元素为100000000L,误差率为3%,根据这两个参数会计算出底层的bit数组大小
        bloomFilter.tryInit(100000L,0.03);
        //将zhuge插入到布隆过滤器中
        bloomFilter.add("zhuge");
        bloomFilter.add("tuling");

        //判断下面号码是否在布隆过滤器中
        System.out.println(bloomFilter.contains("guojia"));//false
        System.out.println(bloomFilter.contains("baiqi"));//false
        System.out.println(bloomFilter.contains("zhuge"));//true
    }

注意:布隆过滤器不能删除数据,如果要删除得重新初始化数据。

缓存失效(击穿)

由于大批量缓存在同一时间失效可能导致大量请求同时穿透缓存直达数据库,可能会造成数据库瞬间压力过大甚至挂掉,对于这种情况我们在批量增加缓存时最好将这一批数据的缓存过期时间设置为一个时间段内的不同时间。

String get(String key) { 
// 从缓存中获取数据 
String cacheValue = cache.get(key); 
// 缓存为空 
if (StringUtils.isBlank(cacheValue)) { 
// 从存储中获取 
String storageValue = storage.get(key); 
cache.set(key, storageValue); 
//设置一个过期时间(300到600之间的一个随机数) 
 int expireTime = new Random().nextInt(300) + 300; 
 if (storageValue == null) { 
 cache.expire(key, expireTime); 
 } 
 return storageValue; 
 } else { 
 // 缓存非空 
 return cacheValue; 
 } 
 }

缓存雪崩

缓存雪崩指的是缓存层支撑不住或宕掉后, 流量会像奔逃的野牛一样, 打向后端存储层。

由于缓存层承载着大量请求, 有效地保护了存储层, 但是如果缓存层由于某些原因不能提供服务(比如超大并发过来,缓存层支撑不住,或者由于缓存设计不好,类似大量请求访问bigkey,导致缓存能支撑的并发急剧下降),于是大量请求都会打到存储层, 存储层的调用量会暴增, 造成存储层也会级联宕机的情况。

解决方法

  1. 保证缓存层服务高可用性,比如使用Redis Sentinel或Redis Cluster
  2. 依赖隔离组件为后端限流熔断并降级。比如使用Sentinel或Hystrix限流降级组件
  • 比如服务降级,我们可以针对不同的数据采取不同的处理方式。当业务应用访问的是非核心数据(例如电商商品属性,用户信息等)时,暂时停止从缓存中查询这些数据,而是直接返回预定义的默认降级信息、空值或是错误提示信息;
  • 当业务应用访问的是核心数据(例如电商商品库存)时,仍然允许查询缓存,如果缓存缺失,也可以继续通过数据库读取

3.提前演练,做好足够的上线前测试,在上线前模拟缓存宕掉的现象并指定处理方案

热点缓存key重建优化

一般而言,使用“缓存+过期时间”的策略既可以加速数据读写, 又保证数据的定期更新; 这种模式基本能够满足绝大部分需求

存在问题

  • 当前key是一个热点key(例如一个热门的娱乐新闻),并发量非常大
  • 重建缓存不能在短时间完成, 可能是一个复杂计算, 例如复杂的SQL、 多次IO、 多个依赖等

在缓存失效的瞬间, 有大量线程来重建缓存, 造成后端负载加大, 甚至可能会让应用崩溃。 要解决这个问题主要就是要避免大量线程同时重建缓存。 我们可以利用互斥锁来解决,此方法只允许一个线程重建缓存, 其他线程等待重建缓存的线程执行完, 重新从缓存获取数据即可。

示例

  String get(String key) { 
  // 从Redis中获取数据 
  String value = redis.get(key); 
  // 如果value为空, 则开始重构缓存 
  if (value == null) { 
  // 只允许一个线程重建缓存, 使用nx, 并设置过期时间ex 
  String mutexKey = "mutext:key:" + key; 
  if (redis.set(mutexKey, "1", "ex 180", "nx")) { 
  // 从数据源获取数据 
   value = db.get(key); 
   // 回写Redis, 并设置过期时间 
   redis.setex(key, timeout, value); 
   // 删除key_mutex 
   redis.delete(mutexKey); 
   }// 其他线程休息50毫秒后重试 
   else { 
   Thread.sleep(50); 
   get(key); 
   } 
   } 
   return value; 
   }

数据库与缓存双写不一致

双写不一致

上图,线程1在写数据库后,还未更新到缓存中时;此时线程2有对同一个值有了更新,且比线程1先更新到缓存中;在线程2更新缓存后,线程1又去更新缓存,会导致预期缓存中的结果应该是线程2的更新值,实际变为线程1的更新值,与数据库中最新的值(线程2的更新值)不一致。

读写并发不一致

另一种仅仅是在首次查询后去更新缓存的处理,也存在问题。

 

 

上图,线程1、2先后更新了数据库并删除了缓存,但线程3在线程2写数据库之前读取了线程1的数据库结果,并在线程2删除缓存后更新了缓存中值;导致预期缓存值应该是8结果更新为10。

解决方案

  • 对于并发几率很小的数据(如个人维度的订单数据、用户数据等),这种几乎不用考虑这个问题,很少会发生缓存不一致,可以给缓存数据加上过期时间,每隔一段时间触发读的主动更新即可。
  • 就算并发很高,如果业务上能容忍短时间的缓存数据不一致(如商品名称,商品分类菜单等),缓存加上过期时间依然可以解决大部分业务对于缓存的要求。
  • 如果不能容忍缓存数据不一致,可以通过加分布式读写锁保证并发读写或写写的时候按顺序排好队,读读的时候相当于无锁。
  • 也可以用阿里开源的canal通过监听数据库的binlog日志及时的去修改缓存,但是引入了新的中间件,增加了系统的复杂度。

 

使用binlog更新缓存,原因在于其记录的sql指令是串行的,不会产生并发请求下的延时和数值变更问题。

小结

使用缓存多用于都铎写少的场景,用来分担对数据库的压力,若是写多读少的情况,缓存使用的意义不大,不如直接访问数据库,请求方面可以通过熔断降级、限流等方式来减轻压力;当然,如果这样的情况下数据库还是顶不住,在缓存足够大的情况下,将缓存作为数据读写的主存储库,让数据库进行数据备份。

需要注意的是,缓存的数据一般都是对时效性,一致性要求不是很高的数据,不能为了使用缓存增加系统的复杂性。

开发规范与性能优化

key-value设计

key设计

(1)【建议】: 可读性和可管理性

以业务名(或数据库名)为前缀(防止key冲突),用冒号分隔,比如业务名:表名:id

trade:order:1 

(2)【建议】:简洁性

保证语义的前提下,控制key的长度,当key较多时,内存占用也不容忽视,例如:

user:{uid}:friends:messages:{mid} 
简化为 u:{uid}:fr:m:{mid} 

(3)【强制】:不要包含特殊字符

反例:包含空格、换行、单双引号以及其他转义字符

value设计

(1)【强制】:拒绝bigkey(防止网卡流量、慢查询)

在Redis中,一个字符串最大512MB,一个二级数据结构(例如hash、list、set、zset)可以存储大约40亿个(2^32-1)个元素。

bigkey的定义

  • 字符串类型:它的big体现在单个value值很大,一般认为超过10KB就是bigkey
  • 非字符串类型:哈希、列表、集合、有序集合,它们的big体现在元素个数太多

一般来说,string类型控制在10KB以内,hash、list、set、zset元素个数不要超过5000。

反例:一个包含200万个元素的list。

非字符串的bigkey,不要使用del删除,使用hscan、sscan、zscan方式渐进式删除,同时要注意防止bigkey过期时间自动删除问题(例如一个200万的zset设置1小时过期,会触发del操作,造成阻塞)。

bigkey的产生

一般来说,bigkey的产生都是由于程序设计不当,或者对于数据规模预料不清楚造成的

(1) 社交类:粉丝列表,如果某些明星或者大v不精心设计下,必是bigkey。

(2) 统计类:例如按天存储某项功能或者网站的用户集合,除非没几个人用,否则必是bigkey。

(3) 缓存类:将数据从数据库load出来序列化放到Redis里,这个方式非常常用,但有两个地方需

要注意,第一,是不是有必要把所有字段都缓存;第二,有没有相关关联的数据,有的同学为了

图方便把相关数据都存一个key下,产生bigkey。

bigkey的缺点

  • 导致redis阻塞
  • 网络拥塞: 指的是一个bigkey在获取的时候,因为并发的量很大,会导致网络带宽承受不住的情况;举例一个bigkey的大小为1M,并发量1000,那么每秒就会产生1000M的流量,而一般的千兆网卡(承受力约=1000/8),而且一个redis会有多个数据库,但统一机器中的redis是在一个进程中处理的,这种bigkey的获取可能还会对其他的实例有影响。
  • 过期删除 :bigkey设置了过期时间,但没有使用redis4.0之后的过期异步删除,会造成阻塞redis。

bigkey的优化

1. 拆分这个bigkey

将数据分段存储,一个大的key,假设存了1百万的用户数据,可以拆分成

200个key,每个key下面存放5000个用户数据

2. 如果bigkey不可避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要hmget,而不是hgetall),删除也是一样,尽量使用优雅的方式来处理。

(2)【推荐】:选择适合的数据类型。

例如:实体类型(要合理控制和使用数据结构,但也要注意节省内存和性能之间的平衡)

反例

set user:1 :name xxx
set user: 1 :age 22  

正例

hmset user:1 name xxx age 22

3.【推荐】:控制key的生命周期,redis不是垃圾桶。

建议使用expire设置过期时间(条件允许可以打散过期时间,防止集中过期)。

常用命令

1.【推荐】 O(N)命令关注N的数量

例如hgetall、lrange、smembers、zrange、sinter等并非不能使用,但是需要明确N的值。有遍历的需求可以使用hscan、sscan、zscan代替。

2.【推荐】:禁用命令

禁止线上使用keys、flushall、flushdb等,通过redis的rename机制禁掉命令,或者使用scan的方式渐进式处理。

3.【推荐】合理使用select

redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是单线程处理,会有干扰,意思是即使操作的是数据库0,在操作期间,对其他的数据库的操作也是要等待的。

4.【推荐】使用批量操作提高效率

  • 原生命令:例如mget、mset。
  • 非原生命令:可以使用pipeline提高效率。

但要注意控制一次批量操作的元素个数(例如500以内,实际也和元素字节数有关)。

注意两者不同:

  • 原生命令是原子操作,pipeline是非原子操作。
  • pipeline可以打包不同的命令,原生命令做不到
  • pipeline需要客户端和服务端同时支持。

5.【建议】Redis事务功能较弱,不建议过多使用,可以用lua替代

客户端使用

1.【推荐】

避免多个应用使用一个Redis实例

正例:不相干的业务拆分,公共数据做服务化。

2.【推荐】

使用带有连接池的数据库,可以有效控制连接,同时提高效率

3.【建议】

高并发下建议客户端添加熔断功能(例如sentinel、hystrix)

4.【推荐】

设置合理的密码,如有必要可以使用SSL加密访问

5.【建议】

Redis对于过期键有三种清除策略

  • 被动删除:当读/写一个已经过期的key时,会触发惰性删除策略,直接删除掉这个过期key
  • 主动删除:由于惰性删除策略无法保证冷数据被及时删掉,所以Redis会定期(内部定时任务)主动淘汰一批已过期的key
  • 当前已用内存超过maxmemory限定时,触发主动清理策略

主动清理策略

在Redis 4.0 之前一共实现了 6 种内存淘汰策略,在 4.0 之后,又增加了 2 种策略,总共8种:

a) 针对设置了过期时间的key做处理

1.volatile-ttl:在筛选时,会针对设置了过期时间的键值对,根据过期时间的先后进行删除,越早过期的越先被删除。

2. volatile-random:就像它的名称一样,在设置了过期时间的键值对中,进行随机删除。

3. volatile-lru:会使用 LRU 算法筛选设置了过期时间的键值对删除。

4. volatile-lfu:会使用 LFU 算法筛选设置了过期时间的键值对删除。

b) 针对所有的key做处理

5. allkeys-random:从所有键值对中随机选择并删除数据。

6. allkeys-lru:使用 LRU 算法在所有数据中进行筛选删除。

7. allkeys-lfu:使用 LFU 算法在所有数据中进行筛选删除。

c) 不处理

8. noeviction:不会剔除任何数据,拒绝所有写入操作并返回客户端错误信息"(error)OOM command not allowed when used memory",此时Redis只响应读操作。

LRU 算法(Least Recently Used,最近最少使用)

淘汰很久没被访问过的数据,以最近一次访问时间作为参考。

LFU 算法(Least Frequently Used,最不经常使用)

淘汰最近一段时间被访问次数最少的数据,以次数作为参考。当存在热点数据时,LRU的效率很好,但偶发性的、周期性的批量操作会导致LRU命中率急剧下降,缓存污染情况比较严重。这时使用LFU可能更好点。

根据自身业务类型,配置好maxmemory-policy(默认是noeviction),推荐使用volatile-lru。如果不设置最大内存,当 Redis 内存超出物理内存限制时,内存的数据会开始和磁盘产生频繁的交换 (swap),会让 Redis 的性能急剧下降。

当Redis运行在主从模式时,只有主结点才会执行过期删除策略,然后把删除操作”del key”同步到从结点删除数据。

连接池标准使用方式

public static void main(String[] args) throws IOException {

        JedisPoolConfig config = new JedisPoolConfig();
        config.setMaxTotal(20);
        config.setMaxIdle(10);
        config.setMinIdle(5);

        Set<HostAndPort> jedisClusterNode = new HashSet<HostAndPort>();
        jedisClusterNode.add(new HostAndPort("192.168.0.1", 8001));
        jedisClusterNode.add(new HostAndPort("192.168.0.1", 8002));
        jedisClusterNode.add(new HostAndPort("192.168.0.1", 8003));
        jedisClusterNode.add(new HostAndPort("192.168.0.1", 8004));
        jedisClusterNode.add(new HostAndPort("192.168.0.1", 8005));
        jedisClusterNode.add(new HostAndPort("192.168.0.1", 8006));

        JedisCluster jedisCluster = null;
        try {
            //connectionTimeout:指的是连接一个url的连接等待时间
            //soTimeout:指的是连接上一个url,获取response的返回等待时间
            jedisCluster = new JedisCluster(jedisClusterNode, 6000, 5000, 10, "xinqi", config);
            System.out.println(jedisCluster.set("cluster", "111"));
            System.out.println(jedisCluster.get("cluster"));
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            if (jedisCluster != null)
                jedisCluster.close();
        }
    }

连接池参数

参数名

含义

默认值

使用建议

maxTotal

资源池中最大连接数

8

设置建议见下面

maxIdle

资源池允许最大空闲 的连接数

8

同上

minIdle

资源池确保最少空闲 的连接数

0

同上

blockWhenExhausted

当资源池用尽后,调 用者是否要等待。只 有当为true时,下面 的maxWaitMillis才会 生效

true

建议使用默认值

maxWaitMillis

当资源池连接用尽 后,调用者的最大等 待时间(单位为毫秒)

-1

表示永不超时 不建议使用默认值

testOnBorrow

向资源池借用连接时 是否做连接有效性检 测(ping),无效连接 会被移除

false

业务量很大时候建议 设置为false(多一次 ping的开销)

testOnReturn

向资源池归还连接时 是否做连接有效性检 测(ping),无效连接 会被移除

false

业务量很大时候建议 设置为false(多一次 ping的开销)

jmxEnabled

是否开启jmx监控,可 用于监控

true

建议开启,但应用本 身也要开启

优化建议

maxTotal

最大连接数,早期的版本叫maxActive

需要考虑的因素

  • 业务希望Redis并发量
  • 客户端执行命令时间
  • Redis资源:例如 nodes(例如应用个数) * maxTotal 是不能超过redis的最大连接数maxclients
  • 资源开销:例如虽然希望控制空闲连接(连接池此刻可马上使用的连接),但是不希望因
  • 为连接池的频繁释放创建连接造成不必靠开销

举例

一次命令时间(borrow|return resource + Jedis执行命令(含网络) )的平均耗时约为1ms,一个连接的QPS大约是1000业务期望的QPS是50000 ,那么理论上需要的资源池大小是50000 / 1000 = 50个。但事实上这是个理论值,还要考虑到要比理论值预留一些资源,通常来讲maxTotal可以比理论值大一些。

但这个值不是越大越好,一方面连接太多占用客户端和服务端资源,另一方面对于Redis这种高QPS的服务器,一个大命令的阻塞即使设置再大资源池仍然会无济于事。

maxIdle

maxIdle实际上才是业务需要的最大连接数,maxTotal是为了给出余量,所以maxIdle不要设置过小,否则会有new Jedis(新连接)开销。

连接池的最佳性能是maxTotal = maxIdle,这样就避免连接池伸缩带来的性能干扰。但是如果并发量不大或者maxTotal设置过高,会导致不必要的连接资源浪费。一般推荐maxIdle可以设置为按上面的业务期望QPS计算出来的理论连接数,maxTotal可以再放大一倍。

minIdle

minIdle(最小空闲连接数),与其说是最小空闲连接数,不如说是"至少需要保持的空闲连接数",在使用连接的过程中,如果连接数超过了minIdle,那么继续建立连接,如果超过了maxIdle,当超过的连接执行完业务后会慢慢被移出连接池释放掉。

连接池预热

如果系统启动完马上就会有很多的请求过来,那么可以给redis连接池做预热,比如快速的创建一些redis连接,执行简单命令,类似ping(),快速的将连接池里的空闲连接提升到minIdle的数量,要根据实际系统的QPS和调用redis客户端的规模整体评估每个节点所使用的连接池大小。

List<Jedis> minIdleJedisList = new ArrayList<Jedis>(jedisPoolConfig.getMinIdle()); 
   for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) { 
  Jedis jedis = null; 
  try { 
  jedis = pool.getResource(); 
  minIdleJedisList.add(jedis); 
  jedis.ping(); 
  } catch (Exception e) { 
   logger.error(e.getMessage(), e); 
   } finally { 
   //注意,这里不能马上close将连接还回连接池,否则最后连接池里只会建立1个连接。。 
   //jedis.close(); 
   } 
   } 
   //统一将预热的连接还回连接池 
   for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) { 
   Jedis jedis = null; 
   try { 
   jedis = minIdleJedisList.get(i); 
   //将连接归还回连接池 
   jedis.close(); 
   } catch (Exception e) { 
   logger.error(e.getMessage(), e); 
   } finally {
   } 
   }

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值