Spring利用JDBCTemplate批量更新数据

public void addBatchScyh(List<User> userList) throws Exception {
		final List<User> yhList = userList;
		final Long drsj = CalendarUtil.getLongDateTime();
		if(yhList != null && yhList.size() > 0){
			this.getJdbcTemplate().batchUpdate("insert into user (id,yhbh,yhxm,lxfs,bbtnz,xtxjd,drsj,drpc,yhbz) VALUES (SEQ_USER_ID.nextval,?, ?, ?, ?, ? ,? ,? ,?)", new BatchPreparedStatementSetter() {
				
				@Override
				public void setValues(PreparedStatement ps, int i) throws SQLException {
					User user = yhList.get(i);
					ps.setBigDecimal(1, BigDecimal.valueOf(Long.decode(user.getYhbh())));
					ps.setString(2, user.getYhxm());
					ps.setLong(3, Long.decode(user.getLxfs()));
					ps.setString(4, user.getBbtnz());
					ps.setString(5, user.getXtxjd());
					ps.setLong(6, drsj);
					ps.setBigDecimal(7, BigDecimal.valueOf(Long.decode(user.getDrpc())));
					ps.setString(8, "1");
					
					//每2000条进行事物提交
			        if (i%2000 == 0) {
			        	ps.executeBatch(); //执行prepareStatement对象中所有的sql语句
			            getSession().flush();//数据库与缓存同步
			            getSession().clear();//清空缓存
			        }
				}
				
				@Override
				public int getBatchSize() {
					return yhList.size();
				}
			});
		}
	}

   

   工作的过程中遇到了一个要海量插入数据的问题,在网上查了很多资料,归纳起来,最快,效率最高的方法当然是采用,JDBC了,但是系统采用的是SSH的架构,退而求其次选择Spring中的JDBCTemplate批量插入操作,其中,每2000条数据提交一次并使session与缓存同步,这样的操作,我也是“小马过河”试一试,但实际的运行结果,表明,确实提高了效率,5万条数据的导入时间大概为40s左右,还行吧,反正是满足领导的要求了,嘿嘿~~

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值