一、简介
- springboot + jpa + oracle,jdk1.8
- 主键的策略使用的序列,strategy = GenerationType.SEQUENCE
- Druid控制台来进行查看批量执行,具体执行行数
二、配置及结果展示
- jpa开启批量配置
spring:
jpa:
properties:
hibernate:
jdbc:
batch_size: 500
batch_versioned_data: true
order_inserts: true
order_updates: true
2、调用repository的saveAll方法后,结果截图展示
idea控制台日志
druid控制台展示,druid下文有具体配置
3、结果分析,idea的日志虽然是两条insert into日志,但是druid的sql分析 执行数是1次执行,可以看到批量执行生效
至此,可通过简单的配置即可实现批量插入。
三、springboot整合Druid数据库连接池,(本文不做Druid和HiKariCP的选择分析,使用Druid只是为了方便控制台查询sql统计分析)
1、Druid的pom文件引入,目前已经有drdid的starter包,使用起来更加便捷
<!-- https://mvnrepository.com/artifact/com.alibaba/druid-spring-boot-starter -->
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid-spring-boot-starter</artifactId>
<version>1.2.6</version>
</dependency>
2、Druid的配置,附上druid的yml格式配置,方便小伙伴自行配置验证,properties格式配置可另行查找,网上有很多
spring:
datasource:
type: com.alibaba.druid.pool.DruidDataSource
druid:
#初始化大小,最小,最大
initial-size: 5
min-idle: 5
max-active: 20
#获取连接等待超时时间
max-wait: 60000
#连接检测等配置
test-while-idle: true
time-between-eviction-runs-millis: 60000
min-evictable-idle-time-millis: 30000
validation-query: select 1 from dual
test-on-borrow: false
test-on-return: false
#缓存 mysql建议关闭
pool-prepared-statements: true
max-pool-prepared-statement-per-connection-size: 20
#配置监控统计拦截的filters
filters: stat,wall
#慢sql记录
connection-properties: druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000
#合并多个DruidDataSource的监控数据
use-global-data-source-stat: true
#控制台监控配置
stat-view-servlet:
login-username: admin
login-password: admin
url-pattern: /druid/*
enabled: true
四、jpa是如何实现批量插入的?有些小伙伴会疑惑savaAll方法明明是for循环调用save方法的
1、save的时候是加到ActionQueue.java里的map里
2、执行flush()时
3、分批次执行
4、获取配置batch_size
五、下图是调用saveAndFlush()方式的流程图,debug查看源码时随意画的,肯定还有些问题也比较简单,可参考查看相关源码