java向mysql写入数据慢_mysql插入数据变慢的原因

mysql插入数据变慢的原因:1、由主码、外码、索引造成的插入效率降低;2、由于使用for循环不停执行这个方法来插入;3、未能及时释放查询结果。

5fa0957539b1b1982d56a7b14f39434f.png

最近的项目需要导入大量的数据,插入的过程中还需要边查询边插入。插入的数据量在100w左右。一开始觉得100w的数据量不大,于是就插啊插,吃了个饭,回来一看,在插入了50多w条数据后,每秒就只能插10条了。。觉得很奇怪,为啥越插越慢呢? 于是就开始分析插入的时间损耗,想到了如下的解决方案:(mysql使用的INNODB引擎)

1.分析是否是由主码,外码,索引造成的插入效率降低

主码:由于主码是每张表必须有的,不能删除。而mysql会对主码自动建立一个索引,这个索引默认是Btree索引,因此每次插入数据要额外的对Btree进行一次插入。这个额外的插入时间复杂度约为log(n)。这个索引无法删除,因此无法优化。但是每次插入的时候,由于主码约束需要检查主码是否出现,这又需要log(n),能否减少这个开销呢?答案是肯定的。我们可以设置主码为自增id AUTO_INCREMENT ,这样数据库里会自动记录当前的自增值,保证不会插入重复的主码,也就避免了主码的重复性检查。

外码:由于我的项目的插入表中存在外码,因此每次插入时需要在另一张表检测外码存在性。这个约束是与业务逻辑相关的,不能随便删除。并且这个时间开销应当是与另一张表大小成正比的常数,不应当越插入越慢才对。所以排除。

索引:为了减少Btree插入的时间损耗,我们可以在建表时先不建索引,先将所有的数据插入。之后我们再向表里添加索引。该方法确实也降低了时间的开销。

经过以上的折腾,再进行测试,发现速度快了一点,但是到了50w条后又开始慢了。看来问题的关键不在这里。于是继续查资料,又发现了个关键问题:

2.将单条插入改为批量插入(参考:点击打开链接)

由于java中的executeUpdate(sql)方法只是执行一条sql操作,就需要调用sql里的各种资源,如果使用for循环不停的执行这个方法来插入,无疑是开销很大的。因此,在mysql提供了一种解决方案:批量插入。 也就是每次的一条sql不直接提交,而是先存在批任务集中,当任务集的大小到了指定阈值后,再将这些sql一起发送至mysql端。在100w的数据规模中,我将阈值设置为10000,即一次提交10000条sql。最后的结果挺好,插入的速度比之前快了20倍左右。批量插入代码如下:public static void insertRelease() {

Long begin = new Date().getTime();

String sql = "INSERT INTO tb_big_data (count, create_time, random) VALUES (?, SYSDATE(), ?)";

try {

conn.setAutoCommit(false);

PreparedStatement pst = conn.prepareStatement(sql);

for (int i = 1; i <= 100; i++) {

for (int k = 1; k <= 10000; k++) {

pst.setLong(1, k * i);

pst.setLong(2, k * i);

pst.addBatch();

}

pst.executeBatch();

conn.commit();

}

pst.close();

conn.close();

} catch (SQLException e) {

e.printStackTrace();

}

Long end = new Date().getTime();

System.out.println("cast : " + (end - begin) / 1000 + " ms");

}

3.一条UPDATE语句的VALUES后面跟上多条的(?,?,?,?)

这个方法一开始我觉得和上面的差不多,但是在看了别人做的实验后,发现利用这个方法改进上面的批量插入,速度能快5倍。后来发现,mysql的导出sql文件中,那些插入语句也是这样写的。。即UPDATE table_name (a1,a2) VALUES (xx,xx),(xx,xx),(xx,xx)... 。也就是我们需要在后台自己进行一个字符串的拼接,注意由于字符串只是不停的往末尾插入,用StringBuffer能够更快的插入。下面是代码:public static void insert() {

// 开时时间

Long begin = new Date().getTime();

// sql前缀

String prefix = "INSERT INTO tb_big_data (count, create_time, random) VALUES ";

try {

// 保存sql后缀

StringBuffer suffix = new StringBuffer();

// 设置事务为非自动提交

conn.setAutoCommit(false);

// Statement st = conn.createStatement();

// 比起st,pst会更好些

PreparedStatement pst = conn.prepareStatement("");

// 外层循环,总提交事务次数

for (int i = 1; i <= 100; i++) {

// 第次提交步长

for (int j = 1; j <= 10000; j++) {

// 构建sql后缀

suffix.append("(" + j * i + ", SYSDATE(), " + i * j

* Math.random() + "),");

}

// 构建完整sql

String sql = prefix + suffix.substring(0, suffix.length() - 1);

// 添加执行sql

pst.addBatch(sql);

// 执行操作

pst.executeBatch();

// 提交事务

conn.commit();

// 清空上一次添加的数据

suffix = new StringBuffer();

}

// 头等连接

pst.close();

conn.close();

} catch (SQLException e) {

e.printStackTrace();

}

// 结束时间

Long end = new Date().getTime();

// 耗时

System.out.println("cast : " + (end - begin) / 1000 + " ms");

}

做了以上的优化后,我发现了一个很蛋疼的问题。虽然一开始的插入速度的确快了几十倍,但是插入了50w条数据后,插入速度总是会一下突然变的非常慢。这种插入变慢是断崖式的突变,于是我冥思苦想,无意中打开了系统的资源管理器,一看发现:java占用的内存在不断飙升。 突然脑海中想到:是不是内存溢出了?

4.及时释放查询结果

在我的数据库查询语句中,使用到了pres=con.prepareStatement(sql)来保存一个sql执行状态,使用了resultSet=pres.executeQuery来保存查询结果集。而在边查边插的过程中,我的代码一直没有把查询的结果给释放,导致其不断的占用内存空间。当我的插入执行到50w条左右时,我的内存空间占满了,于是数据库的插入开始不以内存而以磁盘为介质了,因此插入的速度就开始变得十分的低下。因此,我在每次使用完pres和resultSet后,加入了释放其空间的语句:resultSet.close(); pres.close();。重新进行测试,果然,内存不飙升了,插入数据到50w后速度也不降低了。原来问题的本质在这里!

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
JavaMySQL批量存储数据可以使用批处理(batch)的方式进行,这样可以大大提高插入数据的效率。下面是一个简单的示例代码: ```java import java.sql.Connection; import java.sql.DriverManager; import java.sql.PreparedStatement; import java.sql.SQLException; public class BatchInsertDemo { public static void main(String[] args) { String url = "jdbc:mysql://localhost:3306/test"; String username = "root"; String password = "123456"; try { Class.forName("com.mysql.jdbc.Driver"); Connection conn = DriverManager.getConnection(url, username, password); conn.setAutoCommit(false);//关闭自动提交事务 PreparedStatement pstmt = conn.prepareStatement("insert into user(name, age) values (?, ?)"); for (int i = 1; i <= 10000; i++) { pstmt.setString(1, "user" + i); pstmt.setInt(2, i % 100); pstmt.addBatch();//添加到批处理 } pstmt.executeBatch();//批量执行 conn.commit();//提交事务 pstmt.close(); conn.close(); } catch (ClassNotFoundException | SQLException e) { e.printStackTrace(); } } } ``` 在上面的示例,我们创建了一个名为`BatchInsertDemo`的类,其定义了一个`main()`方法。在`main()`方法,我们首先定义了连接MySQL的URL、用户名和密码,然后使用`Class.forName()`方法加载了MySQL的驱动程序。接下来,我们通过`DriverManager.getConnection()`方法获得了与MySQL数据库的连接,并将自动提交事务关闭。 然后,我们使用`PreparedStatement`对象执行了一条插入语句,并使用`addBatch()`方法将其添加到批处理。在循环结束后,我们使用`executeBatch()`方法批量执行所有的插入语句,并将事务提交。最后,我们关闭了`PreparedStatement`对象和数据库连接。 需要注意的是,批量插入数据时,每次插入数据量不宜过大,否则可能会导致内存溢出或性能下降。一般来说,每批次插入数据量在几千到一万条之间比较合适。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值