JAVA超大量数据入库

背景

产品需求:生成一串不重复的号码0-19999999且不能有超过3位以上的豹子号连号。当消耗一半后需要多少秒才能插入一条数据;
首先的问题就是,先要插入1000万条数据。

我首先生成1000万条数据然后在入库,花费时间8分钟。

步骤1:数据库连接

//调用该方法生成1000万条数据
 public void inset1000WUser() {
        //Set<String> gettestzx = gettestzx();//这是我自己生成1000万个不重复数字的方法
        //List<String> list = new ArrayList<>(gettestzx);
        final String url = "你自己的数据库连接地址";
        //jdbc:mysql://00.0.00.00:3306/****?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true&useSSL=false&zeroDateTimeBehavior=convertToNull
        final String name = "com.mysql.jdbc.Driver";
        final String user = "你自己的用户名";
        final String password = "你自己的密码";
        Connection conn = null;
        try {
            Class.forName(name);//指定连接类型
        } catch (ClassNotFoundException e) {
            throw new RuntimeException(e);
        }
        try {
            conn = DriverManager.getConnection(url, user, password);//获取连接
        } catch (SQLException e) {
            throw new RuntimeException(e);
        }
        if (conn != null) {
            System.out.println("获取连接成功");
            //insert(conn,list);
            insert(conn);
        } else {
            System.out.println("获取连接失败");
        }
        
    }

步骤2:插入数据方法

 //private void insert(Connection conn,List<String> list ) {
 private void insert(Connection conn) {
        // 开始时间
        Long begin = System.currentTimeMillis();
        // sql前缀
        //String prefix = "INSERT INTO user_role (id, num) VALUES ";
         String prefix = "INSERT INTO 你的表名 (你的字段名1, 你的字段名2) VALUES ";
        try {
            // 保存sql后缀
            StringBuffer suffix = new StringBuffer();
            // 设置事务为非自动提交
            conn.setAutoCommit(false);
            // 比起st,pst会更好些
            PreparedStatement pst = (PreparedStatement) conn.prepareStatement(" ");//准备执行语句
            // 外层循环,总提交事务次数,可以修改
            for (int i = 1; i <= 10; i++) {
                suffix = new StringBuffer();
                // 第j次提交步长
                for (int j = 1; j <= 1000000; j++) {
                    // 构建SQL后缀
                    //suffix.append("('"  + snowflake.nextId() + "'," + list.get(j-1) + "),");
                    suffix.append("('"  + 你的字段值1 + "'," + 你的字段值2 + "),");
                }
                // 构建完整SQL
                String sql = prefix + suffix.substring(0, suffix.length() - 1);
                // 添加执行SQL
                pst.addBatch(sql);
                // 执行操作
                pst.executeBatch();
                // 提交事务
                conn.commit();
                // 清空上一次添加的数据
                suffix = new StringBuffer();
            }
            // 头等连接
            pst.close();
            conn.close();
        } catch (SQLException e) {
            e.printStackTrace();
        }
        // 结束时间
        Long end = new Date().getTime();
        // 耗时
        System.out.println("1000万条数据插入花费时间 : " + (end - begin) / 1000 + " s");
        System.out.println("插入完成");
    }

步骤3:调用他就完事了

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要实现Java百万数据入库,我们可以使用以下方法: 1. 数据库优化:首先,我们需要确保数据库的结构和索引设计得优化且合理,以提高数据入库的速度。可以使用合适的数据库引擎、分区表或者分布式数据库来处理大量数据。 2. 批量插入:使用JDBC或者ORM框架如Hibernate,批量插入数据是提高入库速度的重要手段。通过将多条数据封装为一个批次,减少了与数据库的交互次数,提高了性能。 3. 多线程并发入库:使用多线程并发来进行数据入库,可以充分利用多核处理器,加快入库速度。可以将数据分组,每个线程负责处理一组数据,通过线程池来管理和调度线程。 4. 延迟提交事务:对于大批量的数据入库操作,可以进行延迟提交事务,即将事务的提交操作放置在批量插入的结束后,而不是在每次插入之后立即提交。这样可以减少了频繁的事务开销,提高了性能。 5. 使用批处理工具:可以使用一些批处理工具如Spring Batch来处理大规模数据入库任务。这些工具提供了可靠的任务调度和管理机制,能够有效地处理大量数据。 6. 数据分片:对于特别庞大的数据集,可以考虑将数据进行分片处理,拆分为多个小的数据集进行并发入库。可以根据数据的某些特征,如年份或者地理位置,进行数据分片。 最后,为了保证数据的安全性,我们可以实现数据备份和容灾机制,以避免可能的数据丢失或损坏。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值