redis缓存设计与优化

缓存优化:

1、缓存穿透:
指查询一些根本不存在的数据,这样缓存层和数据库都没有查询到,通常出于容错的考虑,如果数据库查不到的数据则不会写入缓存层,这样每次查询不存在的数据都要到数据库去查询,导致数据库的压力过大,失去了缓存保护后端数据库的意义;
造成缓存穿透的原因一般有两个原因:
1.自身业务代码或者数据出现问题;
2.一些恶意攻击、爬虫等造成大量空命中;
缓存穿透的解决方案:
缓存空对象,对数据库查询到的空对象也进行短时间缓存,这样缓存层就可以直接进行返回;这种方式实现起来比较简单,比较适合缓存层命中率不高但可能频繁更新的数据;
布隆过滤器:
对于不存在的数据,布隆过滤器可以过滤调绝大部分的数据;当布隆过滤器说某个值存在时,这个值可能不存在,但它说不存在时,那肯定不存在;这种方法适合数据命中不高、数据相对固定、更新不频繁的数据;代码维护较为复杂, 但是缓存空间占用很少。
布隆过滤器的原理我之前的笔记中有介绍,这里再说一次;

在这里插入图片描述
布隆过滤器就是一个大型的位数组和几个不一样的无偏 hash 函数。所谓无偏就是能够把元素的 hash 值算得比较均匀。
向布隆过滤器中添加 key 时,会使用多个 hash 函数对 key 进行 hash 算得一个整数索引值然后对位数组长度进行取模运算得到一个位置,每个 hash 函数都会算得一个不同的位置。再把位数组的这几个位置都置为 1 就完成了 add 操作。
向布隆过滤器询问 key 是否存在时,跟 add 一样,也会把 hash 的几个位置都算出来,看看位数组中这几个位置是否都为 1,只要有一个位为 0,那么说明布隆过滤器中这个key 不存在。如果都是 1,这并不能说明这个 key 就一定存在,只是极有可能存在,因为这些位被置为 1 可能是因为其它的 key 存在所致。如果这个位数组比较稀疏,这个概率就会很大,如果这个位数组比较拥挤,这个概率就会降低。

可以使用redission实现布隆过滤器:

public class RedissonBloomFilterDemo {

    public static void main(String[] args) {
        Config config = new Config();
        config.useClusterServers().addNodeAddress(
                "redis://192.168.244.129:8001", "redis://192.168.244.129:8002",
                "redis://192.168.244.129:8003", "redis://192.168.244.129:8004",
                "redis://192.168.244.129:8005", "redis://192.168.244.129:8006")
                .setPassword("bijian")
                .setConnectTimeout(5000)
                .setTimeout(3000)
        ;
        RedissonClient redissonClient = Redisson.create(config);
        RBloomFilter<Object> bloomFilter = redissonClient.getBloomFilter("bloomFilter-bijian");

        //初始化布隆过滤器:预计元素为10000L,误差率为3%,根据这两个参数会计算出底层的bit数组大小
        bloomFilter.tryInit(10000L, 0.003);
        //将bijian插入到布隆过滤器中
        bloomFilter.add("bijian");

        //判断是否包含该字符串
        System.out.println(bloomFilter.contains("bijian"));//true
        System.out.println(bloomFilter.contains("zhangsan"));//false
        System.out.println(bloomFilter.contains("lisi"));//false

    }
}

2、缓存失效(击穿)
有的说缓存击穿是个别key到期,大量请求同一时刻都到数据库查询,类似于热点缓存key,解决方案是加互斥锁,一次性只能有一个线程去加入缓存;
我认为是:由于大批量缓存在同一时间失效可能导致大量请求同时击穿缓存直达数据库,可能造成数据库瞬间压力过大甚至宕机;
解决办法是:我们批量增加缓存时最好将这一批数据的过期时间设置为一个时间段内的不同时间;
比如:
//设置一个过期时间(300到600之间的一个随机数)
int expireTime = new Random().nextInt(300) + 300;

3、缓存雪崩:
指的是缓存层支撑不住或者宕机,大量请求会达到数据库,可能造成数据库压力过大甚至宕机(有的博客说是上面说的大面积key同时过期,造成数据库请求量大,但是我认为这是片面的,其它原因造成缓存不能提供很好的保护,造成数据库宕机出现连锁反应);例如缓存层由于某些原因不能提供服务(如超大并发过来缓存层支撑不住(缓存的QPS也是有限的)、或者缓存设计不好类似大量请求访问bigkey,导致缓存支撑的并发急剧下降),于是大量请求到达数据库。
预防和解决缓存雪崩问题可以从以下三个方面入手:
保存缓存层的服务的高可用,比如使用redis sentinel或者redis cluster;
依赖隔离组件为后端限流熔断降级,比如使用sentinel或Hystrix限流降级组件;
比如服务降级,我们可以针对不同的数据采取不同的处理方式。当业务应用访问的是非核心数据(例如电商商品属性,用户信息等)时,暂时停止从缓存中查询这些数据,而是直接返回预定义的默认降级信息、空值或是错误提示信息;当业务应用访问的是核心数据(例如电商商品库存)时,仍然允许查询缓存,如果缓存缺失,也可以继续通过数据库读取。
提前演练。 在项目上线前, 演练缓存层宕掉后, 应用以及后端的负载情况以及可能出现的问题, 在此基础上做一些预案设定。

4、热点缓存key重建优化:
开发人员一般使用“缓存+过期时间”来设计缓存,这样保证了数据的定期更新; 但是如果同出现以下两种情况,可能造成严重危害:
(1)当前key是热点key(热点新闻等),并发量非常大。
(2)重建缓存不能在短时间内完成,可能逻辑复杂,比如复杂的sql、多次io,依赖其它接口等;
这两点可能造成,在缓存失效瞬间,有大量请求都来重建缓存,造成后端负载过大,可能不仅导致数据库宕机甚至整个应用崩溃。
要解决这个问题主要是避免大量线程同时重建缓存:
我们可以用分布式互斥锁来解决这个问题,此方法只允许一个线程来重建缓存,其它线程至需要等待缓存重建完 ,重新从缓存中获取即可。
伪代码演示:

String get(String key) {
    // 从Redis中获取数据
    String value = redis.get(key);
    // 如果value为空, 则开始重构缓存
    if (value == null) {
        // 只允许一个线程重建缓存, 使用nx, 并设置过期时间ex
        String mutexKey = "mutext:key:" + key;
        if (redis.set(mutexKey, "1", "ex 180", "nx")) {
            // 从数据源获取数据
            value = db.get(key);
            // 回写Redis, 并设置过期时间
            redis.setex(key, timeout, value);
            // 删除key_mutex
            redis.delete(mutexKey);
        }// 其他线程休息50毫秒后重试
        else {
            Thread.sleep(50);
            get(key);
        }
    }
    return value;
}

5、缓存与数据库双写不一致:

在这里我们讨论三种常见的更新策略:
1)先更新更数据库,再更新缓存;
2)先删除缓存,再更新数据库;
3)先更新数据库,再删除缓存;

① 先更新数据库,再更新缓存:
出现问题的场景,同时有线程A和线程B对数据进行更新操作:
1、线程A更新了数据库;
2、线程B更新了数据库;
3、线程B更新了缓存;
4、线程A更新了缓存;
② 先删除缓存,再更新数据库:
出现问题的场景:
1、线程A先进行删除缓存;
2、线程B发现缓存不存在,查询数据库得到旧值;
3、线程A将最新的数据写入数据库;
4、线程B将旧值写入缓存;
③ 先更新数据库,再删除缓存:
出现问题的场景:
1、缓存刚好失效,或者其他线程更新数据库并删除缓存;
2、线程A发现缓存不在了,查询数据库得到旧值;
3、线程B,更新数据库,并删除缓存;
4、线程A将旧值写入缓存;
这样,脏数据就产生了,然而上面的情况是假设在数据库写请求比读请求还要快。实际上,工程中数据库的读操作的速度远快于写操作的。还有的人说可以在第一次删除缓存后等待一会(几十毫秒)再进行删除一次缓存,这样就避免了脏数据的产生;

解决数据缓存一致性的方案:
1、对于并发机率很小的数据,如个人维度的数据(订单数据、用户数据等),这种缓存一致性的问题几乎不用考虑,只需要给缓存加上过期时间每隔一段时间更新就行;
2、就算并发度很高,但是业务上容忍短时间内缓存数据不一致的情况(商品名字或介绍等),缓存加上过期时间依然可以解决大部分业务对缓存的要求;
3、如果不能容忍缓存不一致的问题的解决方案:
1)只要保证读和写串行化执行就可以了;可以使用分布式读写锁来保证并发读写或者写写的时候一个个执行,读读的时候相当于无锁;
可以实现redisson的读写锁,如下:
RReadWriteLock lock = redissonClient.getReadWriteLock(“lockKkey”);
lock.readLock();
lock.writeLock();
2)可以通过使用阿里开源的canal中间件来监听数据库的binlog日志去修改相应的缓存,但是引入了新的中间件,增加了系统的复杂度。
在这里插入图片描述

总结:
以上三种情况都会产生脏数据的情况,并且我们针对的都是读多写少的场景,如果写多读多的场景并且缓存数据不一致的情况,那就没必要加入缓存了,可以直接操作数据库。当然数据库如果扛不住压力,可以把缓存作为数据读写的主存储,异步将数据同步到数据库,数据库只作为数据的备份。
放入缓存的数据是对实时性和一致性要求不高的数据,切记不要为了使用缓存又要保存数据的绝对一致性而做大量的的过度设计和控制,增加系统复杂性。

开发规范与性能优化

1.value设计
(1)【强制】:拒绝bigkey(防止网卡流量、慢查询)
在Redis中,一个字符串最大512MB,一个二级数据结构(例如hash、list、set、zset)可以存储大约40亿个(2^32-1)个元素,但实际中如果下面两种情况,我就会认为它是bigkey。
字符串类型:它的big体现在单个value值很大,一般认为超过10KB就是bigkey。
非字符串类型:哈希、列表、集合、有序集合,它们的big体现在元素个数太多。
一般来说,string类型控制在10KB以内,hash、list、set、zset元素个数不要超过5000。
反例:一个包含200万个元素的list。
非字符串的bigkey,不要使用del删除,使用hscan、sscan、zscan方式渐进式删除,同时要注意防止bigkey过期时间自动删除问题(例如一个200万的zset设置1小时过期,会触发del操作,造成阻塞)
1.bigkey的危害:
1)导致redis阻塞;
2)网络拥塞
bigkey也就意味着每次获取要产生的网络流量较大,假设一个bigkey为1MB,客户端每秒访问量为1000,那么每秒产生1000MB的流量,对于普通的千兆网卡(按照字节算是128MB/s)的服务器来说简直是灭顶之灾,而且一般服务器会采用单机多实例的方式来部署,也就是说一个bigkey可能会对其他实例也造成影响,其后果不堪设想。
3)3. 过期删除
有个bigkey,它安分守己(只执行简单的命令,例如hget、lpop、zscore等),但它设置了过期时间,当它过期后,会被删除,如果没有使用Redis 4.0的过期异步删除(lazyfree-lazy-expire yes),就会存在阻塞Redis的可能性。
2.bigkey的产生:
一般来说,bigkey的产生都是由于程序设计不当,或者对于数据规模预料不清楚造成的,来看几个例子:
(1) 社交类:粉丝列表,如果某些明星或者大v不精心设计下,必是bigkey。
(2) 统计类:例如按天存储某项功能或者网站的用户集合,除非没几个人用,否则必是bigkey。
(3) 缓存类:将数据从数据库load出来序列化放到Redis里,这个方式非常常用,但有两个地方需要注意,第一,是不是有必要把所有字段都缓存;第二,有没有相关关联的数据,有的同学为了图方便把相关数据都存一个key下,产生bigkey。

3.如何优化bigkey


  1. big list: list1、list2、…listN
    big hash:可以讲数据分段存储,比如一个大的key,假设存了1百万的用户数据,可以拆分成200个key,每个key下面存放5000个用户数据
  2. 如果bigkey不可避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要hmget,而不是hgetall),删除也是一样,尽量使用优雅的方式来处理
  3. 推荐】:选择适合的数据类型。
    例如:实体类型(要合理控制和使用数据结构,但也要注意节省内存和性能之间的平衡)
    反例:
    set user:1:name tom set user:1:age 19 set user:1:favor football
    正例:
    hmset user:1 name tom age 19 favor football
    4.【推荐】:控制key的生命周期,redis不是垃圾桶。
    建议使用expire设置过期时间(条件允许可以打散过期时间,防止集中过期)。

二、命令使用
1.【推荐】 O(N)命令关注N的数量
例如hgetall、lrange、smembers、zrange、sinter等并非不能使用,但是需要明确N的值。有遍历的需求可以使用hscan、sscan、zscan代替。
2.【推荐】:禁用命令
禁止线上使用keys、flushall、flushdb等,通过redis的rename机制禁掉命令,或者使用scan的方式渐进式处理。
3.【推荐】合理使用select
redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是单线程处理,会有干扰。

Redis事务功能较弱,不建议过多使用,可以用lua替代

三、客户端使用

1.【推荐】
避免多个应用使用一个Redis实例
正例:不相干的业务拆分,公共数据做服务化。
2.【推荐】
使用带有连接池的数据库,可以有效控制连接,同时提高效率,标准使用方式:
在这里插入图片描述

优化建议:
1)maxTotal:最大连接数,早期的版本叫maxActive
实际上这个是一个很难回答的问题,考虑的因素比较多:
业务希望Redis并发量
客户端执行命令时间
Redis资源:例如 nodes(例如应用个数) * maxTotal 是不能超过redis的最大连接数maxclients。
资源开销:例如虽然希望控制空闲连接(连接池此刻可马上使用的连接),但是不希望因为连接池的频繁释放创建连接造成不必靠开销。
以一个例子说明,假设:
一次命令时间(borrow|return resource + Jedis执行命令(含网络) )的平均耗时约为1ms,一个连接的QPS大约是1000;
业务期望的QPS是50000
那么理论上需要的资源池大小是50000 / 1000 = 50个。但事实上这是个理论值,还要考虑到要比理论值预留一些资源,通常来讲maxTotal可以比理论值大一些。
但这个值不是越大越好,一方面连接太多占用客户端和服务端资源,另一方面对于Redis这种高QPS的服务器,一个大命令的阻塞即使设置再大资源池仍然会无济于事。

2)maxIdle和minIdle
maxIdle实际上才是业务需要的最大连接数,maxTotal是为了给出余量,所以maxIdle不要设置过小,否则当前链接不够用时,会有new Jedis(新连接)开销。
连接池的最佳性能是maxTotal = maxIdle,这样就避免连接池伸缩带来的性能干扰。但是如果并发量不大或者maxTotal设置过高,会导致不必要的连接资源浪费。一般推荐maxIdle可以设置为按上面的业务期望QPS计算出来的理论连接数,maxTotal可以再放大一倍。
minIdle(最小空闲连接数),与其说是最小空闲连接数,不如说是"至少需要保持的空闲连接数",在使用连接的过程中,如果连接数超过了minIdle,那么继续建立连接,如果超过了maxIdle,当超过的连接执行完业务后会慢慢被移出连接池释放掉。
如果系统启动完马上就会有很多的请求过来,那么可以给redis连接池做预热,比如快速的创建一些redis连接,执行简单命令,类似ping(),快速的将连接池里的空闲连接提升到minIdle的数量。

总之,要根据实际系统的QPS和调用redis客户端的规模整体评估每个节点所使用的连接池大小。

3.【建议】
高并发下建议客户端添加熔断功能(例如sentinel、hystrix)

4.【推荐】
设置合理的密码,如有必要可以使用SSL加密访问

5.redis对过期的key有三种删除策略:

1)被动删除:当读/写一个过期的key时,会触发惰性删除策略,直接删除掉这个过期的key;
2)主动删除:由于惰性删除策略无法保证冷数据及时被删除,所以redis会定期主动淘汰一批已过期的key;
3)当前已用内存超过maxmemory(最大内存配置)限定时,触发主动清除策略;
主动清除策略redis4.0之前有6种内存淘汰策略,在4.0之后又增加了2种策略,总共8种:
针对设置了过期时间的key的淘汰策略:
① volatile-ttl:对设置了过期时间的key,根据过期时间的先后顺序进行删除,越早过期的key约先被删除;
② Volatitle-random:在设置了过期时间的key中进行随机删除;
③ Volatile-lru:会使用LRU算法对设置了过期时间的key进行删除;
④ volatole-lfu:会使用LFU算法对设置了过期时间的key进行删除;
针对所有key的淘汰策略:
⑤ Allkeys-random:对所有key进行选择随机删除;
⑥ Allkeys-lru:使用LRU算法对所有key进行删除;
⑦ Allkeys-lfu:使用LFU算法对所有key进行删除;
不处理:
8、Noeviction:不删除任何数据,会拒绝所有的写入操作 ,并返回给客户端错误信息”(error)OOM command not allowed when used memory”,此时redis只能做读操作。

LRU算法(Least Recently Used,最近最少使用):
淘汰很久没有访问过的数据,以最近一次访问时间作为参考;
LFU算法(Least Frequently Used,最不经常使用):
淘汰最近一段时间访问次数最少的的数据,以最近访问次数作为参考;

当存在热点数据时,LRU的效率很好,但偶发性的、周期性的批量操作会导致LRU命中率急剧下降,缓存污染情况比较严重。这时使用LFU可能更好点

根据自身业务类型,配置好上面8种淘汰策略maxmemory-policy(默认是noeviction)。如果不设置最大内存maxmemory,当redis内存超出物理内存限制时,内存的数据开始和磁盘产生频繁的交互(swap),会导致redis性能急剧下降。
当redis运行主从模式的时候,只有主节点过期删除策略,然后再把删除操作del key同步到从节点。

慢查询日志:slowlog

Redis慢日志命令说明:
(1)config get slow* #查询有关慢日志的配置信息
(2)config set slowlog-log-slower-than 20000 #设置慢日志使时间阈值,单位微秒,此处为20毫秒,即超过20毫秒的操作都会记录下来,生产环境建议设置1000,也就是1ms,这样理论上redis并发至少达到1000,如果要求单机并发达到1万以上,这个值可以设置为100
(3)config set slowlog-max-len 1024 #设置慢日志记录保存数量,如果保存数量已满,会删除最早的记录,最新的记录追加进来。记录慢查询日志时Redis会对长命令做截断操作,并不会占用大量内存,建议设置稍大些,防止丢失日志
(4)config rewrite #将服务器当前所使用的配置保存到redis.conf
(5)slowlog len #获取慢查询日志列表的当前长度
(6)slowlog get 5 #获取最新的5条慢查询日志。慢查询日志由四个属性组成:标识ID,发生时间戳,命令耗时,执行命令和参数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值