面试官:1亿条数据批量插入 MySQL,哪种方式最快?

这几天研究mysql优化中查询效率时,发现测试的数据太少(10万级别),利用 EXPLAIN 比较不同的 SQL 语句,不能够得到比较有效的测评数据,大多模棱两可,不敢通过这些数据下定论。

所以通过随机生成人的姓名、年龄、性别、电话、email、地址 ,向mysql数据库大量插入数据,便于用大量的数据测试 SQL 语句优化效率。、在生成过程中发现使用不同的方法,效率天差万别。

1、先上Mysql数据库,随机生成的人员数据图。分别是ID、姓名、性别、年龄、Email、电话、住址。

下图一共三千三百万数据:

在数据量在亿级别时,别点下面按钮,会导致Navicat持续加载这亿级别的数据,导致电脑死机。~觉着自己电脑配置不错的可以去试试,可能会有惊喜

2、本次测评一共通过三种策略,五种情况,进行大批量数据插入测试

策略分别是:

  • Mybatis 轻量级框架插入(无事务)

  • 采用JDBC直接处理(开启事务、无事务)

  • 采用JDBC批处理(开启事务、无事务)

测试结果:

Mybatis轻量级插入 -> JDBC直接处理 -> JDBC 批处理。

JDBC 批处理,效率最高

第一种策略测试:

2.1 Mybatis 轻量级框架插入(无事务)

Mybatis是一个轻量级框架,它比hibernate轻便、效率高。

但是处理大批量的数据插入操作时,需要过程中实现一个ORM的转换,本次测试存在实例,以及未开启事务,导致mybatis效率很一般。

这里实验内容是:

  • 利用Spring框架生成mapper实例、创建人物实例对象

  • 循环更改该实例对象属性、并插入。


    
    
  1. //代码内无事务
  2.   private  long  begin  =  33112001; //起始id
  3.      private  long  end  = begin+ 100000; //每次循环插入的数据量
  4.      private  String  url  =  "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&characterEncoding=UTF-8";
  5.      private  String  user  =  "root";
  6.      private  String  password  =  "0203";
  7. @org.junit.Test
  8.      public  void  insertBigData2 ()
  9.     {
  10.          //加载Spring,以及得到PersonMapper实例对象。这里创建的时间并不对最后结果产生很大的影响
  11.          ApplicationContext  context  =  new  ClassPathXmlApplicationContext( "applicationContext.xml");
  12.          PersonMapper  pMapper  = (PersonMapper) context.getBean( "personMapper");
  13.          //创建一个人实例
  14.          Person  person  =  new  Person();
  15.          //计开始时间
  16.          long  bTime  = System.currentTimeMillis();
  17.          //开始循环,循环次数500W次。
  18.          for( int i= 0;i< 5000000;i++)
  19.         {
  20.              //为person赋值
  21.             person.setId(i);
  22.             person.setName(RandomValue.getChineseName());
  23.             person.setSex(RandomValue.name_sex);
  24.             person.setAge(RandomValue.getNum( 1100));
  25.             person.setEmail(RandomValue.getEmail( 4, 15));
  26.             person.setTel(RandomValue.getTel());
  27.             person.setAddress(RandomValue.getRoad());
  28.              //执行插入语句
  29.             pMapper.insert(person);
  30.             begin++;
  31.         }
  32.          //计结束时间
  33.          long  eTime  = System.currentTimeMillis();
  34.         System.out.println( "插入500W条数据耗时:"+(eTime-bTime));
  35.     }

本想测试插入五百万条数据,但是实际运行过程中太慢,中途不得不终止程序。最后得到52W数据,大约耗时两首歌的时间(7~9分钟)。随后,利用mybatis向mysql插入10000数据。

结果如下:

利用mybatis插入 一万 条数据耗时:28613,即28.6秒

第二种策略测试:

2.2 采用JDBC直接处理(开启事务、关闭事务)

采用JDBC直接处理的策略,这里的实验内容分为开启事务、未开启事务是两种,过程均如下:

  • 利用PreparedStatment预编译

  • 循环,插入对应数据,并存入

事务对于插入数据有多大的影响呢?看下面的实验结果:


    
    
  1. //该代码为开启事务
  2.   private  long  begin  =  33112001; //起始id
  3.      private  long  end  = begin+ 100000; //每次循环插入的数据量
  4.      private  String  url  =  "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&amp;characterEncoding=UTF-8";
  5.      private  String  user  =  "root";
  6.      private  String  password  =  "0203";
  7. @org.junit.Test
  8.      public  void  insertBigData3 () {
  9.          //定义连接、statement对象
  10.          Connection  conn  =  null;
  11.          PreparedStatement  pstm  =  null;
  12.          try {
  13.              //加载jdbc驱动
  14.             Class.forName( "com.mysql.jdbc.Driver");
  15.              //连接mysql
  16.             conn = DriverManager.getConnection(url, user, password);
  17.               //将自动提交关闭
  18.              conn.setAutoCommit( false);
  19.              //编写sql
  20.              String  sql  =  "INSERT INTO person VALUES (?,?,?,?,?,?,?)";
  21.              //预编译sql
  22.             pstm = conn.prepareStatement(sql);
  23.              //开始总计时
  24.              long  bTime1  = System.currentTimeMillis();
  25.              //循环10次,每次一万数据,一共10万
  26.              for( int i= 0;i< 10;i++) {
  27.                  //开启分段计时,计1W数据耗时
  28.                  long  bTime  = System.currentTimeMillis();
  29.                  //开始循环
  30.                  while (begin < end) {
  31.                      //赋值
  32.                     pstm.setLong( 1, begin);
  33.                     pstm.setString( 2, RandomValue.getChineseName());
  34.                     pstm.setString( 3, RandomValue.name_sex);
  35.                     pstm.setInt( 4, RandomValue.getNum( 1100));
  36.                     pstm.setString( 5, RandomValue.getEmail( 415));
  37.                     pstm.setString( 6, RandomValue.getTel());
  38.                     pstm.setString( 7, RandomValue.getRoad());
  39.                      //执行sql
  40.                     pstm.execute();
  41.                     begin++;
  42.                 }
  43.                  //提交事务
  44.                 conn.commit();
  45.                  //边界值自增10W
  46.                 end +=  10000;
  47.                  //关闭分段计时
  48.                  long  eTime  = System.currentTimeMillis();
  49.                  //输出
  50.                 System.out.println( "成功插入1W条数据耗时:"+(eTime-bTime));
  51.             }
  52.              //关闭总计时
  53.              long  eTime1  = System.currentTimeMillis();
  54.              //输出
  55.             System.out.println( "插入10W数据共耗时:"+(eTime1-bTime1));
  56.         }  catch (SQLException e) {
  57.             e.printStackTrace();
  58.         }  catch (ClassNotFoundException e1) {
  59.             e1.printStackTrace();
  60.         }
  61.     }

1、我们首先利用上述代码测试无事务状态下,插入10W条数据需要耗时多少。

如图:


    
    
  1. 成功插入1W条数据耗时:21603
  2. 成功插入1W条数据耗时:20537
  3. 成功插入1W条数据耗时:20470
  4. 成功插入1W条数据耗时:21160
  5. 成功插入1W条数据耗时:23270
  6. 成功插入1W条数据耗时:21230
  7. 成功插入1W条数据耗时:20372
  8. 成功插入1W条数据耗时:22608
  9. 成功插入1W条数据耗时:20361
  10. 成功插入1W条数据耗时:20494
  11. 插入10W数据共耗时:212106

实验结论如下:

在未开启事务的情况下,平均每 21.2 秒插入 一万 数据。

接着我们测试开启事务后,插入十万条数据耗时,如图:


    
    
  1. 成功插入1W条数据耗时:4938
  2. 成功插入1W条数据耗时:3518
  3. 成功插入1W条数据耗时:3713
  4. 成功插入1W条数据耗时:3883
  5. 成功插入1W条数据耗时:3872
  6. 成功插入1W条数据耗时:3873
  7. 成功插入1W条数据耗时:3863
  8. 成功插入1W条数据耗时:3819
  9. 成功插入1W条数据耗时:3933
  10. 成功插入1W条数据耗时:3811
  11. 插入10W数据共耗时:39255

实验结论如下:

开启事务后,平均每 3.9 秒插入 一万 数据

第三种策略测试:

2.3 采用JDBC批处理(开启事务、无事务)

采用JDBC批处理时需要注意一下几点:

1、在URL连接时需要开启批处理、以及预编译


    
    
  1. String url = “ jdbc: mysql: //localhost:3306/User?rewriteBatched
  2. - Statements= true&useServerPrepStmts= false”;

2、PreparedStatement预处理sql语句必须放在循环体外

代码如下:


    
    
  1. private  long  begin  =  33112001; //起始id
  2. private  long  end  = begin+ 100000; //每次循环插入的数据量
  3. private  String  url  =  "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&amp;characterEncoding=UTF-8";
  4. private  String  user  =  "root";
  5. private  String  password  =  "0203";
  6. @org.junit.Test
  7. public  void  insertBigData () {
  8.      //定义连接、statement对象
  9.      Connection  conn  =  null;
  10.      PreparedStatement  pstm  =  null;
  11.      try {
  12.          //加载jdbc驱动
  13.         Class.forName( "com.mysql.jdbc.Driver");
  14.          //连接mysql
  15.         conn = DriverManager.getConnection(url, user, password);
  16.    //将自动提交关闭
  17.    // conn.setAutoCommit(false);
  18.          //编写sql
  19.          String  sql  =  "INSERT INTO person VALUES (?,?,?,?,?,?,?)";
  20.          //预编译sql
  21.         pstm = conn.prepareStatement(sql);
  22.          //开始总计时
  23.          long  bTime1  = System.currentTimeMillis();
  24.          //循环10次,每次十万数据,一共1000万
  25.          for( int i= 0;i< 10;i++) {
  26.              //开启分段计时,计1W数据耗时
  27.              long  bTime  = System.currentTimeMillis();
  28.              //开始循环
  29.              while (begin < end) {
  30.                  //赋值
  31.                 pstm.setLong( 1, begin);
  32.                 pstm.setString( 2, RandomValue.getChineseName());
  33.                 pstm.setString( 3, RandomValue.name_sex);
  34.                 pstm.setInt( 4, RandomValue.getNum( 1100));
  35.                 pstm.setString( 5, RandomValue.getEmail( 415));
  36.                 pstm.setString( 6, RandomValue.getTel());
  37.                 pstm.setString( 7, RandomValue.getRoad());
  38.                  //添加到同一个批处理中
  39.                 pstm.addBatch();
  40.                 begin++;
  41.             }
  42.              //执行批处理
  43.             pstm.executeBatch();
  44.             //提交事务
  45.    //        conn.commit();
  46.              //边界值自增10W
  47.             end +=  100000;
  48.              //关闭分段计时
  49.              long  eTime  = System.currentTimeMillis();
  50.              //输出
  51.             System.out.println( "成功插入10W条数据耗时:"+(eTime-bTime));
  52.         }
  53.          //关闭总计时
  54.          long  eTime1  = System.currentTimeMillis();
  55.          //输出
  56.         System.out.println( "插入100W数据共耗时:"+(eTime1-bTime1));
  57.     }  catch (SQLException e) {
  58.         e.printStackTrace();
  59.     }  catch (ClassNotFoundException e1) {
  60.         e1.printStackTrace();
  61.     }
  62. }

首先开始测试

无事务,每次循环插入10W条数据,循环10次,一共100W条数据。

结果如下图:


    
    
  1. 成功插入10W条数据耗时:3832
  2. 成功插入10W条数据耗时:1770
  3. 成功插入10W条数据耗时:2628
  4. 成功插入10W条数据耗时:2140
  5. 成功插入10W条数据耗时:2148
  6. 成功插入10W条数据耗时:1757
  7. 成功插入10W条数据耗时:1767
  8. 成功插入10W条数据耗时:1832
  9. 成功插入10W条数据耗时:1830
  10. 成功插入10W条数据耗时:2031
  11. 插入100W数据共耗时:21737

实验结果:

使用JDBC批处理,未开启事务下,平均每 2.1 秒插入 十万 条数据

接着测试

开启事务,每次循环插入10W条数据,循环10次,一共100W条数据。

结果如下图:


    
    
  1. 成功插入10W条数据耗时:3482
  2. 成功插入10W条数据耗时:1776
  3. 成功插入10W条数据耗时:1979
  4. 成功插入10W条数据耗时:1730
  5. 成功插入10W条数据耗时:1643
  6. 成功插入10W条数据耗时:1665
  7. 成功插入10W条数据耗时:1622
  8. 成功插入10W条数据耗时:1624
  9. 成功插入10W条数据耗时:1779
  10. 成功插入10W条数据耗时:1698
  11. 插入100W数据共耗时:19003

实验结果:

使用JDBC批处理,开启事务,平均每 1.9 秒插入 十万 条数据

3 总结

能够看到,在开启事务下 JDBC直接处理 和 JDBC批处理 均耗时更短。

  • Mybatis 轻量级框架插入 , mybatis在我这次实验被黑的可惨了,哈哈。实际开启事务以后,差距不会这么大(差距10倍)。大家有兴趣的可以接着去测试

  • JDBC直接处理,在本次实验,开启事务和关闭事务,耗时差距5倍左右,并且这个倍数会随着数据量的增大而增大。因为在未开启事务时,更新10000条数据,就得访问数据库10000次。导致每次操作都需要操作一次数据库。

  • JDBC批处理,在本次实验,开启事务与关闭事务,耗时差距很微小(后面会增加测试,加大这个数值的差距)。但是能够看到开启事务以后,速度还是有提升。

结论:设计到大量单条数据的插入,使用JDBC批处理和事务混合速度最快

实测使用批处理+事务混合插入1亿条数据耗时:174756毫秒

4 补充

JDBC批处理事务,开启和关闭事务,测评插入20次,一次50W数据,一共一千万数据耗时:

1、开启事务(数据太长不全贴了)

插入1000W数据共耗时:197654

2、关闭事务(数据太长不全贴了)

插入1000W数据共耗时:200540

还是没很大的差距~

借用:

分别是:

  • 不用批处理,不用事务;

  • 只用批处理,不用事务;

  • 只用事务,不用批处理;

  • 既用事务,也用批处理;(很明显,这个最快,所以建议在处理大批量的数据时,同时使用批处理和事务)

 敬请期待我的下一篇文章,谢谢。

更多java进阶资料,面试资料,关注公众号

来源:https://blog.csdn.net/qq_19007169/article/details/124835249
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值