JAVA高效率 (秒级) 入库千万级别数据

问题背景:

多个定时任务定期运行,各任务从若干张表中取出数据处理后形成千万级别数据再入库表😖,任务之间有关联关系,任务B依赖任务A产出的表,任务C依赖任务B产出的表....。

任务之间有依赖关系,数据又是千万级别数量,那数据入库速度至少得1s处理几万条数据吧。

想要实现这种飞一般的处理速度,就需要用到JDBC两个对象:PrepareStatement、Statement


简单介绍PreparedStatement 和 Statement 的区别

  1. PreparedStatement在使用时只需要编译一次,就可以运行多次,Statement每运行一次就编译一次,所以PreparedStatement的效率更高

  1. PreparedStatement需要的sql语句为用?(占位符)来替换值,Statement所需要的sql语句为字符串拼接

  1. PreparedStatement解决了sql注入的问题,Statement没有解决,因为PreparedStatement有一个预编译的过程,就算传入占位符的数据中有sql关键字也都被认为是值。Statement所需要的是字符串拼接,传入的整个字符串被默认为sql语句,如果用户手动拼接了字符串,那么会导致语句的改变

从区别中看出,preparedStatement的效率会更高点,就使用它了。

要想使用preparedStatement,我们得自己手搓数据库连接😆😆😆,不能依赖springboot集成mysql。

要想使用preparedStatement,我们得自己手搓数据库连接😆😆😆,不能依赖SpringBoot集成Mysql。(目前这套方法已经在Mysql、ClickHouse数据库上有明显效果,本文着重介绍Mysql使用方法,感兴趣的同学可以尝试其他数据库如何使用。


编写JDBC数据库连接DBHelper辅助工具类
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.SQLException;

public class DBHelper {

    private static final Logger log = LoggerFactory.getLogger(DBHelper.class);

    private static final String dbUrl = "jdbc:mysql://localhost:3306/animalhome?serverTimezone=UTC&rewriteBatchedStatements=true";

    private static final String username = "root"; //用户名

    private static final String password = ""; //密码

    private static final String driverClassName = "com.mysql.jdbc.Driver"; //连接类型

    public Connection conn = null; //数据库连接对象

    public DBHelper() {}

    /**
     * 提供功能接口,用于获取连接对象
     * @return Connection
     */
    public Connection getConnection(){
        return conn;
    }
    
    //开启数据库连接
    public void openConnection() {
        try {
            Class.forName(driverClassName);//指定连接类型
            conn = DriverManager.getConnection(dbUrl, username, password);//获取连接
            conn.setAutoCommit(false);//关闭自动提交
        } catch (Exception e) {
            log.error("数据库连接失败,请联系相关人员排查!",e);
        }
    }

    //关闭数据库连接
    public void closeConnection() {
        try {
            this.conn.close();
        } catch (SQLException e) {
            log.error("关闭数据库连接失败,请联系相关人员排查!",e);
        }
    }
}

定义User对象,后续测试类作为处理对象使用。
public class User {

    private String username;

    private String password;

    private String address;

    public String getUsername() {
        return username;
    }

    public void setUsername(String username) {
        this.username = username;
    }

    public String getPassword() {
        return password;
    }

    public void setPassword(String password) {
        this.password = password;
    }

    public String getAddress() {
        return address;
    }

    public void setAddress(String address) {
        this.address = address;
    }

    @Override
    public String toString() {
        return "user{" +
                "username='" + username + '\'' +
                ", password='" + password + '\'' +
                ", address='" + address + '\'' +
                '}';
    }
}

关键代码编写
  1. 定义数据处理类DataHandler,增加无参构造方法实现开启数据库连接、预编译sql语句返回PreparedStatement实例功能。(注释已在代码中)

import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import java.sql.PreparedStatement;
import java.sql.SQLException;

public class DataHandler {

    private static final Logger log = LoggerFactory.getLogger(DataHandler.class);

    //自定义数据库连接对象
    private DBHelper db;

    private PreparedStatement statement;

    //prepareStatement的sql语句是使用?(占位符)赋值。
    private String insertUser = "insert into user (username,password,address) values(?,?,?)";

    public DataHandler() {
      //new一个
        db = new DBHelper();
      //开启数据库连接
        db.openConnection();
        try {
        //预编译sql语句,返回PreparedStatement实例
            statement = db.conn.prepareStatement(insertUser);
        } catch (SQLException e) {
            e.printStackTrace();
        }
    }
}

接下来的数据处理中,我们又会用到JDBC批量处理语句的三个方法:

addBatch(String):添加需要批量处理的SQL语句或是参数;
executeBatch():执行批量处理语句;
clearBatch():清空缓存的数据;
setObject():使用给定对象设置指定参数的值。

  1. 增加处理对象数据方法,解析添加到批量sql中,达到入库最大批次后批量入库。(注释已在代码中)

    //入库总数
    private long totalLine = 0;
    //入库数量
    private int counter = 0;
    //最大入库数量
    private int maxBatch =10000;

    /**
     * 处理数据:解析添加到批量SQL中,达到入库最大批次后批量入库
     * @author xiafan
     * @param user 处理数据
     * @param count 行标识
     * @throws Exception
     */
    public void insertUser(User user, long count) throws Exception {
        try {
            totalLine++;
            counter++;
            if (user != null) {
          statement.setObject(1, user.getUsername());
                statement.setObject(2, user.getPassword());
                statement.setObject(3, user.getAddress());
                statement.addBatch();//将数据转为一条sql语句

                // 达到一个批次最大值,入库
                if (counter == maxBatch) {
            // 批量处理
                    statement.executeBatch();
                    // 清空缓存数据,结合最大入库数量的判断,做到双重防止内存溢出问题。
                    statement.clearBatch();
            // 记录读取数量重置为0,重新累加最大入库数量。
                    counter = 0;
                }
            }

            //数据量小于最大批次入库量,且是最后一行则收尾。
            if (count < maxBatch &&  count == 1) {
                statement.executeBatch();
                statement.clearBatch();
          //关闭PreparedStatement实例
                statement.close();
                //为了防止预编译过程中程序异常,故改为手动提交sql
                db.conn.commit();
          //关闭数据库连接
                db.closeConnection();
                log.info(Thread.currentThread().getName() + " parse total line is:" + totalLine);
            }
        } catch (Exception e){
            throw new Exception("预编译插入语句出现问题,请联系运维人员排查!",e);
        }
    }

最后编写测试类,开始大力出奇迹! 🙏 🙏 🙏
import java.util.ArrayList;
import java.util.List;

public class demo {

    public static void main(String[] args) throws Exception {
        DataHandler dataHandler = new DataHandler();
        List<User> list = new ArrayList<>();
        User usercs = new User();
        usercs.setUsername("孙悟空");
        usercs.setPassword("No1");
        usercs.setAddress("南京市");
        for (int i = 0; i < 1000000; i++) {
            list.add(usercs);
        }
        long count = list.size();
        long begin = System.currentTimeMillis();
        System.out.println("开始时间为:" + begin);
        for (User user: list) {
            dataHandler.insertUser(user,count);
            count--;
        }
        long end = System.currentTimeMillis();
        System.out.println("结束时间为:" + (end-begin) / 1000 + "秒");
    }
}

本机电脑运行结果如下:

数据库如下:

收货满满的成就感!!!

结语:

入库100w条数据仅仅耗时8秒,对于目前我所做需求来说绰绰有余,使用时只需根据不同电脑性能控制每次执行sql要导入的数据量即可,欢迎大家有更好的建议,亦或者更高的效率入库方法可以跟我讨论。

  • 6
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
要实现Java百万级数据入库,我们可以使用以下方法: 1. 数据库优化:首先,我们需要确保数据库的结构和索引设计得优化且合理,以提高数据入库的速度。可以使用合适的数据库引擎、分区表或者分布式数据库处理大量的数据。 2. 批量插入:使用JDBC或者ORM框架如Hibernate,批量插入数据是提高入库速度的重要手段。通过将多条数据封装为一个批次,减少了与数据库的交互次数,提高了性能。 3. 多线程并发入库:使用多线程并发来进行数据入库,可以充分利用多核处理器,加快入库速度。可以将数据分组,每个线程负责处理一组数据,通过线程池来管理和调度线程。 4. 延迟提交事务:对于大批量的数据入库操作,可以进行延迟提交事务,即将事务的提交操作放置在批量插入的结束后,而不是在每次插入之后立即提交。这样可以减少了频繁的事务开销,提高了性能。 5. 使用批处理工具:可以使用一些批处理工具如Spring Batch来处理大规模数据入库任务。这些工具提供了可靠的任务调度和管理机制,能够有效地处理大量的数据。 6. 数据分片:对于特别庞大的数据集,可以考虑将数据进行分片处理,拆分为多个小的数据集进行并发入库。可以根据数据的某些特征,如年份或者地理位置,进行数据分片。 最后,为了保证数据的安全性,我们可以实现数据备份和容灾机制,以避免可能的数据丢失或损坏。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值