SpringBoot利用ThreadPoolTaskExecutor多线程批量插入百万级数据

玩转代码 2023-03-07 18:16 发表于山东

前言

开发目的:提高百万级数据插入效率。

采取方案:利用ThreadPoolTaskExecutor多线程批量插入。

采用技术:springboot2.1.1+mybatisPlus3.0.6+swagger2.5.0+Lombok1.18.4+postgresql+ThreadPoolTaskExecutor等。

具体实现细节

application-dev.properties添加线程池配置信息

# 异步线程配置# 配置核心线程数async.executor.thread.core_pool_size = 30# 配置最大线程数async.executor.thread.max_pool_size = 30# 配置队列大小async.executor.thread.queue_capacity = 99988# 配置线程池中的线程的名称前缀async.executor.thread.name.prefix = async-importDB-

spring容器注入线程池bean对象

@Configuration@EnableAsync@Slf4jpublic class ExecutorConfig {    @Value("${async.executor.thread.core_pool_size}")    private int corePoolSize;    @Value("${async.executor.thread.max_pool_size}")    private int maxPoolSize;    @Value("${async.executor.thread.queue_capacity}")    private int queueCapacity;    @Value("${async.executor.thread.name.prefix}")    private String namePrefix;    @Bean(name = "asyncServiceExecutor")    public Executor asyncServiceExecutor() {        log.warn("start asyncServiceExecutor");        //在这里修改        ThreadPoolTaskExecutor executor = new VisiableThreadPoolTaskExecutor();        //配置核心线程数        executor.setCorePoolSize(corePoolSize);        //配置最大线程数        executor.setMaxPoolSize(maxPoolSize);        //配置队列大小        executor.setQueueCapacity(queueCapacity);        //配置线程池中的线程的名称前缀        executor.setThreadNamePrefix(namePrefix);        // rejection-policy:当pool已经达到max size的时候,如何处理新任务        // CALLER_RUNS:不在新线程中执行任务,而是有调用者所在的线程来执行        executor.setRejectedExecutionHandler(new ThreadPoolExecutor.CallerRunsPolicy());        //执行初始化        executor.initialize();        return executor;    }}

创建异步线程 业务类

@Service@Slf4jpublic class AsyncServiceImpl implements AsyncService {@Override    @Async("asyncServiceExecutor")    public void executeAsync(List<LogOutputResult> logOutputResults, LogOutputResultMapper logOutputResultMapper, CountDownLatch countDownLatch) {        try{            log.warn("start executeAsync");            //异步线程要做的事情            logOutputResultMapper.addLogOutputResultBatch(logOutputResults);            log.warn("end executeAsync");        }finally {            countDownLatch.countDown();// 很关键, 无论上面程序是否异常必须执行countDown,否则await无法释放        }    }}

创建多线程批量插入具体业务方法

@Overridepublic int testMultiThread() {    List<LogOutputResult> logOutputResults = getTestData();    //测试每100条数据插入开一个线程    List<List<LogOutputResult>> lists = ConvertHandler.splitList(logOutputResults, 100);    CountDownLatch countDownLatch = new CountDownLatch(lists.size());    for (List<LogOutputResult> listSub:lists) {        asyncService.executeAsync(listSub, logOutputResultMapper,countDownLatch);    }    try {        countDownLatch.await(); //保证之前的所有的线程都执行完成,才会走下面的;        // 这样就可以在下面拿到所有线程执行完的集合结果    } catch (Exception e) {        log.error("阻塞异常:"+e.getMessage());    }    return logOutputResults.size();}

模拟2000003 条数据进行测试

多线程 测试 2000003  耗时如下:耗时1.67分钟:

本次开启30个线程,截图如下:

单线程测试2000003  耗时如下:耗时5.75分钟:

检查多线程入库的数据,检查是否存在重复入库的问题:

根据id分组,查看是否有id重复的数据,通过sql语句检查,没有发现重复入库的问题。

检查数据完整性:通过sql语句查询,多线程录入数据完整。

测试结果

不同线程数测试:

总结

通过以上测试案列,同样是导入2000003  条数据,多线程耗时1.67分钟,单线程耗时5.75分钟。通过对不同线程数的测试,发现不是线程数越多越好,具体多少合适,网上有一个不成文的算法:

CPU核心数量*2 +2 个线程。

附:测试电脑配置

————————————————

作者:CSDN「阿啄debugIT」

链接:https://blog.csdn.net/as4589sd/article/details/103697108

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值