mysql 批量插入问题

场景:需要实时对mysql一张表中插入大量数据

优化方案:

1.数据库连接池

2.针对http请求,进行多线程访问,和写入

3.批量插入

要点:

a.对于mysql 数据库配置数据库url:

jdbc:mysql://ip:3306/table_name?useUnicode=true&characterEncoding=UTF8&connectTimeout=1000&rewriteBatchedStatements=true&socketTimeout=2000

b.preparedStatement批量插入

import com.mchange.v2.c3p0.ComboPooledDataSource;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.beans.factory.annotation.Qualifier;
import org.springframework.stereotype.Repository;
import org.springframework.stereotype.Service;

import javax.sql.DataSource;
import java.sql.*;
import java.util.ArrayList;

@Repository("name")
public class Impl implements IDAO {

    @Autowired
    private DataSource dataSource;


    @Override
    public int batchInsert(ArrayList<RecordDetailDO> list) {

        String sql = "insert into table (record_name, amount, consume_id, created_time) values (?, ?, ?, sysDate())";
        Connection connection = null;
        PreparedStatement ps = null;
        try {
            connection = dataSource.getConnection();
            connection.setAutoCommit(false);
            ps = connection.prepareStatement(sql);

            for (RecordDetailDO recordDetailDO: list) {
                ps.setString(1, recordDetailDO.getRecordNameEnum().toString());
                ps.setInt(2, recordDetailDO.getRefId());
                ps.setBigDecimal(3, recordDetailDO.getAmount());
                ps.addBatch();
            }
            int[] rtl = ps.executeBatch();
            int ok = 0;
            for(int i = 0; i < rtl.length; i++){
                if(rtl[i] != 1){
                    logger.info("consumeRecordDetailBatchInsert有遗漏:" + list.get(i));
                } else {
                    ok++;
                }
            }
            connection.commit();
            connection.setAutoCommit(true);
            return ok;
        } catch (SQLException e) {
            e.printStackTrace();
        }
        return 0;
    }
}


批量插入上千次以上,效果更佳

要点:

http://brian.pontarelli.com/2011/06/21/jdbc-batch-vs-multi-row-inserts/

http://stackoverflow.com/questions/3784197/efficient-way-to-do-batch-inserts-with-jdbc

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MySQL批量插入方法是一种在特定场景下使用的优化技术,相较于单次循环插入,具有较大的优势和应用价值。在MySQL中,批量插入可以有效地提高数据插入的速度和性能。根据引用和引用的描述,MySQL批量插入方法适用于以下场景: 1. 当需要一次性插入大量数据时,如导入Excel数据或处理大数据集。 2. 当需要提高插入性能和效率时,以减少数据库操作次数。 在实现过程中,可以按照以下步骤进行: 1. 在Controller层获取待导入的数据,并将其传递给后端处理。 2. 在mapper.xml文件中编写相应的SQL语句,用于批量插入数据。可以使用MySQL提供的批量插入函数,如`saveBatch()`,或者使用循环开启批处理模式。 3. 执行批量插入操作,将数据一次性插入数据库。 通过对常用的插入大数据的方式进行测试,可以得出比较实用的方案。根据引用的描述,常见的插入大数据的方式包括:for循环单条插入、拼接SQL语句、批量插入saveBatch()函数、循环开启批处理模式。根据实际需求和性能测试的结果,选择最适合的批量插入方式。 总结起来,MySQL批量插入方法是一种在特定场景下提高数据插入性能和效率的优化技术,可以根据具体需求选择合适的批量插入方式来实现。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [MySQL批量插入(使用mybatis实现mysql数据库的批量插入操作)](https://blog.csdn.net/qq_43403676/article/details/124406698)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [MySQL优化:批量插入大数据4种实用、讲究方案的测试](https://blog.csdn.net/a18505947362/article/details/123667215)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值