druid连接超时时间20分钟引起的血案

1.问题描述
生产环境当数据量大的时候有时就会出现挂批问题。(默认3分钟定时任务调度一次,可是有时候定时任务启动了,但是业务数据没有处理)。挂批就造成大量业务挤压,没有处理。这时候就需要人手工处理。

2.问题分析
2.1 bug 反思路分析
JobDetail#execute
/*这段代码中首先判断一下批次的状态是否是running,若是running那么直接返回,不调用处理业务逻辑代码/
if (RUNNING.equals(taskInfo.getStatus())) {
  logger.info(taskInfo.getId().getTaskKey() + “is running…”);
} else {
// 处理业务逻辑的代码
execute(context, task, taskInfo);
log.info(“job exec end”+DataUtil.now())
updateJobDb(task);
}
2.2Bug分析
强总提示druid配置发现一个 Druid连接池 removeAbandonedTimeout 设置1200。

配置说明:removeAbandonedTimeout 超过时间限制是否回收 。

根据强总得分析,紧接着我们分析一下源码。简单来说就是druid会hold住连接池。

com.alibaba.druid.pool.DruidDataSource#getConnectionDirect
/** 设置数据库连接最长时间 */
public DruidPooledConnection getConnection(long maxWaitMillis) throws SQLException {
      this.init();
      if (this.filters.size() > 0) {
          FilterChainImpl filterChain = new FilterChainImpl(this);
          return filterChain.dataSource_connect(this, maxWaitMillis);
      } else {
          return this.getConnectionDirect(maxWaitMillis);
      }
}
/*超时之后放弃连接,这里仅仅是部分源码,有兴趣自己研究看全/
public int removeAbandoned() {
     
      DruidPooledConnection pooledConnection;
      try {
          iter = this.activeConnections.keySet().iterator();

          while(iter.hasNext()) {
              pooledConnection = (DruidPooledConnection)iter.next();
              if (!pooledConnection.isRunning()) {
                  long timeMillis = (currrentNanos - pooledConnection.getConnectedTimeNano()) / 1000000L;
                  if (timeMillis >= this.removeAbandonedTimeoutMillis) {
                      iter.remove();
                      pooledConnection.setTraceEnable(false);
                      abandonedList.add(pooledConnection);
                  }
              }
          }
      } finally {
          this.activeConnectionLock.unlock();
      }
  }
2.3 bug再现
根据上述分析,我们采用手动sleep20分钟来看看是否是这样。
样板(1)发3条数据,sleep19分钟
样板(2)发2条数据,sleep20分钟
发起时间 结束时间 流水号    
2020-01-09 14:18:40 23
2020-01-09 14:18:30 22
2020-01-09 14:13:10 2020-01-09 14:18:01 21
2020-01-09 13:57:50 2020-01-09 14:18:01 20
2020-01-09 13:57:40 2020-01-09 14:18:00 18
2020-01-09 13:51:25 2020-01-09 13:57:24 17
2020-01-09 13:51:20 2020-01-09 13:57:23 16
2020-01-09 13:50:40 2020-01-09 13:57:21 15
2020-01-09 13:31:01 2020-01-09 13:47:11 14
2020-01-09 13:28:20 2020-01-09 13:47:10 13
2020-01-09 13:13:09 2020-01-09 13:13:14 12
3.问题解决
方法一:一次处理的数据小一点,只要保证20分钟处理完就行。

方法二:设置更长的数据库连接时间。

感谢付总,郝总一起分析研究。
————————————————
版权声明:本文为CSDN博主「镜水灵动」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/u014172271/article/details/103946347

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值