spring boot的redis连接数过多导致redis服务器压力过大的一次问题排查

一、背景

在今天上午的时候,突然收到大量的sentry报错,都是关于redis连接超时的警告。

首先想到的是去查看redis的监控,发现那个时间段,redis的请求数剧增,cpu使用率和带宽都陡增双倍。

在这里插入图片描述

下面的是redis监控的cpu情况
在这里插入图片描述
最后贴一张redis的流量
在这里插入图片描述

到目前为止,可以看到redis的压力确实上来了。

随之,阿里云也给我们发来告警,说redis连接超时,导致主从切换。

于是,我们推测是程序的访问量剧增,接口中都又依赖redis,导致访问redis的请求等陡增。

当然,至于为什么会发生,是不是就是redis出问题了呢?最后又应该怎么调整?

是调整程序,还是加大redis的配置?

二、监控

从监控大盘能看到的信息有:httpq qps高达17k~18k,jvm节点的内存和gc等没有任何异常,毫无压力。但是redis访问却超时。(程序设置连接redis的超时时间为3秒)

1、http qps

在这里插入图片描述
从上图可以看出,服务当时的qps是有显著上升的,接近翻一番。

2、arms的redis监控

从服务的角度,也即redis客户端的角度,分析redis的连接数,一直是在1个上下,最多也不超过2个。
在这里插入图片描述

3、cloudDBA

由于我们缺少对redis客户端的连接监控,从上图arms的redis监控可以看出,它也缺乏对lettuce外的监控。

所以说,我们只能从阿里云的cloudDBA,从dba的角度,反向去看连接上来的实例会话数。

在这里插入图片描述
而一般情况下,redis客户端有多少呢?1或2个,见下:

在这里插入图片描述

4、sentry

推荐大家安装这块日志聚合工具,可以定制其监控报警。我们便是因为收到sentry报警,才及时知晓线上有什么故障的。

在这里插入图片描述

下面是摘自sentry的主要报错信息:

QueryTimeoutException
Redis command timed out; nested exception is io.lettuce.core.RedisCommandTimeoutException: 
Command timed out after 3 second(s)

三、redis连接数

1、lettuce

在这里插入图片描述
源码见类LettuceConnectionFactory
其中的构建函数中,可以看到,默认this.shareNativeConnection = true; 表示共享本地线程。
在这里插入图片描述
下面,看看关于连接池的配置项:

详见类org.springframework.boot.autoconfigure.data.redis.RedisProperties,其中Pool类是跟线程池相关的配置。
在这里插入图片描述
那么,是在哪个地方用到的呢?
org.springframework.boot.autoconfigure.data.redis.LettuceConnectionConfiguration.PoolBuilderFactory

把RedisProperties.Pool赋值给GenericObjectPoolConfig,详见下:
在这里插入图片描述
如果需要池化技术,你需要额外引入线程池框架。(因为我这项目里没有引入,所以看到是标红的,编译不通过)

换句话说,默认情况下,我们使用的redis客户端只会创建一个连接。

<dependency>
    <groupId>org.apache.commons</groupId>
    <artifactId>commons-pool2</artifactId>
    <version>2.7.0</version>
</dependency

总结:lettuce连接redis,只会创建一个连接。

具体推荐一篇文章:https://www.cnblogs.com/throwable/p/11601538.html#%E8%BF%9E%E6%8E%A5redis

2、jedis

由于,我们没有使用jedis了,相信很多人也不会弃用lettuce而用它。
所以,这里不打算对其连接进行很细的描述。

当我们使用springboot框架的时候,你只要看spring-boot-autoconfigure.jar的实现。

org.springframework.boot.autoconfigure.data.redis.JedisConnectionConfiguration

在这里插入图片描述

    private void applyPooling(RedisProperties.Pool pool,
			JedisClientConfiguration.JedisClientConfigurationBuilder builder) {
		builder.usePooling().poolConfig(jedisPoolConfig(pool));
	}

配置RedisProperties.Pool赋值给JedisPoolConfig。

在这里插入图片描述

3、redisson

Config config = new Config();
config.useSingleServer()
        .setAddress("redis://127.0.0.1:6379");

RedissonClient redisson = Redisson.create(config);

顺着代码往后看:

public SingleServerConfig useSingleServer() {
        return this.useSingleServer(new SingleServerConfig());
    }

所以,只需要看类org.redisson.config.SingleServerConfig的成员变量以及构造函数。

    private int connectionMinimumIdleSize = 24;
    private int connectionPoolSize = 64;

在这里插入图片描述
所以,需要将最前的代码,稍加修改如下:

Config config = new Config();
config.useSingleServer()
        .setAddress("redis://127.0.0.1:6379")
        .setConnectionMinimumIdleSize(5)
        .setConnectionPoolSize(10)
        .setThreads(10)
        .setNettyThreads(2);

RedissonClient redisson = Redisson.create(config);

  • setConnectionMinimumIdleSize(5) 设置了连接池的最小空闲连接数为 5
  • setConnectionPoolSize(10) 设置了连接池的最大连接数为 10
  • setThreads(10) 设置了 Redission 使用的线程数
  • setNettyThreads(2) 设置了 Netty 使用的线程数

Redission 使用线程池来处理异步操作,其中的线程数由 threads 配置项控制。较多的线程可能导致较多的连接。

总结:由于我们在使用redission的时候,采用的是默认值,所以连接池的最小连接数为24,这也趋近前文redis的客户端实例监控的数量(27)。

也可以说,之所以和其他服务相比,占用更多的连接,就是redission配置项使用的默认值所导致。

四、总结

jvm程序的内存和gc没有变化,在接口访问量陡增的情况下,我们根据目前得到的信息,决定修改程序代码redission的配置。

也就是说,减少程序对redis服务器的并发请求,至少不会让redis服务器的压力陡增。

一味地增加redis配置当然不可取,因为我们的redis配置已经是很高了。

在这里插入图片描述
另外,我很怀疑阿里云在今天的表现,说实话,业务在没有变化非常大的情况下,不应该使得redis一下子就卡机了。

服务只是让redis的压力上升了,并不是会让得redis连接超时且切换了主从。

再说下去就是阴谋论了,水平有限,从目前获取到的信息看,只能把程序本来存在的旧问题给修复好,后期再看监控对比吧。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值