项目中进行接口压测,发现批量插入的速度有点超出预期,感觉很奇怪,经过定位后发现mybatise-plus批量保存的处理十分缓慢,使用的是saveBatch方法,这点有点想不通。于是就进行了相关内容分析。
根据mybatise-plus中saveBatch的方法进行源码查看:
![3460ba39b987f21083b19e1440b791f5.jpeg](https://img-blog.csdnimg.cn/img_convert/3460ba39b987f21083b19e1440b791f5.jpeg)
继续跟踪逻辑,从代码上看,确实是一条条执行了sqlSession.insert(sqlStatement, entity) 方法。
![471e80ab64c859079df5fc21786360e7.jpeg](https://img-blog.csdnimg.cn/img_convert/471e80ab64c859079df5fc21786360e7.jpeg)
继续跟踪,下面的consumer执行的就是上面的sqlSession.insert方法:
![9d8db746d696c80740ec7c636048d07d.jpeg](https://img-blog.csdnimg.cn/img_convert/9d8db746d696c80740ec7c636048d07d.jpeg)
具体执行逻辑中是累计到 一定数量后,一批数据进行flush。
其实,从上述的代码实现上看,整个实现机制跟我们预想的差不多,基本上是批量的实现思路。这种批量的处理肯定比一条条的insert要快。
但是,为什么还是如此的缓慢。
下面我们就进行一个粗略的实验,来对比一波。现在使用4种方式进行比较:
1、批量数据单条执行,调用myBatise方法save
2、批量执行调用myBatise方法saveBatch
3、通过xml手写sql批量插入
4、JDBC方式批量插入开始进行实验
1、1000条数据,一条条的插入
![995c849cbf223e02f33bec3a1778df3e.jpeg](https://img-blog.csdnimg.cn/img_convert/995c849cbf223e02f33bec3a1778df3e.jpeg)
执行结果为:
![fc98fe8de36587678b79a6a7fac01c93.jpeg](https://img-blog.csdnimg.cn/img_convert/fc98fe8de36587678b79a6a7fac01c93.jpeg)
可以看到,执行一批1000条点的数据,耗费时间为1173毫秒。
2、1000条数据,使用mybatise-plus的saveBatch插入
![bc10b96148ef40829a3e476768cf7fa4.jpeg](https://img-blog.csdnimg.cn/img_convert/bc10b96148ef40829a3e476768cf7fa4.jpeg)
执行结果为:
![fc75ebba250fe3f62ade3ea3dd844eb4.jpeg](https://img-blog.csdnimg.cn/img_convert/fc75ebba250fe3f62ade3ea3dd844eb4.jpeg)
可以看到,本次总的耗时为289毫秒,比一条条的插入快了大约4倍,效率还是可以的。
3、通过xml手写sql批量插入。
Xml中拼接内容为:
![00af06db27e3fc2cacbb182695751721.jpeg](https://img-blog.csdnimg.cn/img_convert/00af06db27e3fc2cacbb182695751721.jpeg)
Java代码内容为:
![6664ade448b90f06b1f7320d5f73e408.jpeg](https://img-blog.csdnimg.cn/img_convert/6664ade448b90f06b1f7320d5f73e408.jpeg)
执行程序看下性能如何:
![29d3b069c4fe9d35bfd6243ea8b3b979.jpeg](https://img-blog.csdnimg.cn/img_convert/29d3b069c4fe9d35bfd6243ea8b3b979.jpeg)
本次耗时只有34毫秒,性能比saveBatch提高了7倍
4、JDBC方式批量插入开始进行实验
![c003ca8f9b93500447dd953d19d85806.jpeg](https://img-blog.csdnimg.cn/img_convert/c003ca8f9b93500447dd953d19d85806.jpeg)
执行情况:
![c99ad927194bfb98280636031f60d00f.jpeg](https://img-blog.csdnimg.cn/img_convert/c99ad927194bfb98280636031f60d00f.jpeg)
本次耗时142毫秒,
执行效率比saveBatch要快,比手动拼接方式要慢,
综上所述,手动拼接sql的方式是批量保存效率最佳。
5、结论
整个执行结果跟预期的不一样,这里我们直接说结论,因为mybatise-plus的saveBatch方法会继续调用mysql驱动中的实现,
在Mysql的驱动jar中,ClientPreparedStatement.java中executeBatchInternal()方法中
![1f030576345fb46294ce1f2e476417f2.jpeg](https://img-blog.csdnimg.cn/img_convert/1f030576345fb46294ce1f2e476417f2.jpeg)
就是这个叫 rewriteBatchedStatements 的属性,从名字来看是要重写批操作的 Statement,前面batchHasPlainStatements 已经是 false,取反肯定是 true,所以只要这参数是 true 就会进行一波操作。
属性默认是 false。
可以直接将 jdbcurl 加上了这个参数:
看下 executeBatchedInserts 究竟干了什么,在上面基础上继续执行逻辑,
果然,sql语句倍rewrite了:
对于插入而言,所谓的rewrite其实就是将一批插入拼接成insert into XXX values(a),(b)…
这样的一条语句形式后再执行,这样一来跟拼接sql的效果是一样的。
那么,为什么默认不给这个rewriteBatchedStatements属性设置为true,
原来有如下原因:
看下 executeBatchedInserts 究竟干了什么:
1. 如果批量语句中的某些语句失败,则默认重写会导致所有语句都失败。
2. 批量语句的某些语句参数不一样,则默认重写会使得查询缓存未命中。
看起来影响不大,所以我给我的项目设置上了这个参数!
最后我稍微总结下粗略的对比:大家如果想要更准确的实现,可以自己进行更多组数据测试:
![395499984c41d187f1e49df298a83131.jpeg](https://img-blog.csdnimg.cn/img_convert/395499984c41d187f1e49df298a83131.jpeg)
以如果有使用 jdbc 的 Batch 性能方面的需求,要将 rewriteBatchedStatements 设置为 true,这样能提高很多性能。
然后如果喜欢手动拼接 sql 要注意一次拼接的数量,分批处理。