百万级数据存入MySql

我又来了,又是百万数据的导入,其实又是项目中遇到的,那么怎么快速导入呢,因为我们项目用的是JPA,有时也使用jdbcTemplate,没错又是jdbcTemplate。对于这种大数据的处理,我们能业务代码方面最基本的能想到的就是块处理和使用线程。此处可以参考JAVA向Mysql插入亿级别数据---测评

首先由于我们项目用的是jpa,so我最先也使用的jpa来存数据,而且最先做的也是批量处理,一次存10000数据。在springboot1.5中,jpa的save有两个方法,先来看一下源码:

@NoRepositoryBean
public interface CrudRepository<T, ID extends Serializable> extends Repository<T, ID> {
    <S extends T> S save(S var1);
    <S extends T> Iterable<S> save(Iterable<S> var1);
}
复制代码

可以看到save既可以保存一个实体,也可以保存多个实体,所以我选择的就是保存多个实体,结果发现save的速度贼慢,尤其是想存100000条数据时。而如果我save单个实体,并开启多线程,发现save的效率比批量处理要快点,我也是懵了。一开始就这样存80多万的数据用了N久,具体时间也没记录了。

然后自己就想着用最原生的方法来存一下,就是jdbc,同样一次存10000条,批量处理。

首先要注意的是:
1.在URL连接时需要开启批处理、以及预编译
String url = “jdbc:mysql://localhost:3306/cds_credit_rtm_data?rewriteBatched
-Statements=true&useServerPrepStmts=false”;

  1. PreparedStatement预处理sql语句必须放在循环体外

接下来就是常规的jdbc操作:

//开始总计时
long bTime1 = System.currentTimeMillis();
//count=1380271
for (int i=0; i<count; i+=100000){
   List<DataToEmployee> list = //todo 每次从数据库获取10w条
   Connection conn = null;
   PreparedStatement pstm = null;
  try{
    //加载jdbc驱动
    Class.forName("com.mysql.jdbc.Driver");
    //连接mysql
    conn = DriverManager.getConnection(url, user, password);
    String sql = ".....";  //insert语句
     //关闭自动提交
//  conn.setAutoCommit(false);
    //预编译sql
    pstm = conn.prepareStatement(sql);
    if(list!=null && list.size()>0){
        long bTime = System.currentTimeMillis();
        for(DataToEmployee data : list){
            pstm.setString(1,data.getName());
            ......
            pstm.addBatch();  //批量处理
        }
        pstm.executeBatch();
        //关闭分段计时
       long eTime = System.currentTimeMillis();
       //输出
       System.out.println("成功插入10W条数据耗时:"+(eTime-bTime));
    }
  }
}
//关闭总计时
long eTime1 = System.currentTimeMillis();
//输出
System.out.println("插入"+count+"数据共耗时:"+(eTime1-bTime1));
复制代码

这里统计出插入10W条数据的时间一般维持在2s左右,相比之前jpa是有很大的提升

成功插入10W条数据耗时:2832
成功插入10W条数据耗时:1870
成功插入10W条数据耗时:2328
成功插入10W条数据耗时:2023
成功插入10W条数据耗时:2148
成功插入10W条数据耗时:1789
成功插入10W条数据耗时:1987
成功插入10W条数据耗时:2032
...

jpa在存大量数据的时候,需要进行ORM转换,MyBatis也一样,效率相比jdbc肯定要差点,而且在使用jdbc的时候我就用了单线程,可见两者之间的差距。


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值