SSH+Oracle批量插入数据小结

6 篇文章 0 订阅
5 篇文章 0 订阅
插入数据是一项很简单的操作,但一旦提高了数据量,就变得不那么容易。
最近项目中使用SSH+oracle数据库,使用C3P0连接池,要求当执行某动作时在2表中各插入一万条数据。于是就采用了jdbc的方式插入。
先获取一个sequence,再将数据插入到数据库中。一测试时间,崩溃了,用时近3分钟(其中获取两个表的sequence很费时),后来想想以前曾经做过一个类似的项目,使用了主键自增的策略,就将主键改为自增了。再次测试,还可以,不到3秒。将此代码记录下来,以便日后参考。
顺便说说,可以使用存储过程(尤其是操作多个表插数据),这样效率更快些。

表就省略了,下面是sequence:

create sequence SEQ_TEST
minvalue 1
maxvalue 999999999999999999999999999
start with 126661
increment by 1
cache 20;

这个就是oracle实现自增的触发器了,TB_ID是表中得主键:

create or replace trigger TRI_TEST
before insert on tb_ticket_log
for each row
declare
begin
select SEQ_TEST.Nextval into:new.TB_ID from dual;
end TRI_TEST;

下面是数据交换层的代码:


public void save(final List list)
throws HibernateException, SQLException {
this.getHibernateTemplate().execute(new HibernateCallback() {
public Object doInHibernate(Session session)
throws HibernateException, SQLException {

Connection conn = session.connection();
PreparedStatement ps = null;
PreparedStatement _ps = null;
String sql = "INSERT INTO TB1(column,...) VALUES (?,...)";
String _sql = "INSERT INTO TB2(column,...) VALUES(?,...)";

ps = conn.prepareStatement(sql);
_ps = conn.prepareStatement(_sql);

for (int i = 0; i < list.size(); i++) {
ps.setString(1, "");
//ps.set...
ps.addBatch();

_ps.setString(1, "");
//_ps.set...
_ps.addBatch();

// 每一万次执行并清除session,否则你懂的。
if (i % 10000 == 0) {
ps.executeBatch();
_ps.executeBatch();
session.flush();
session.close();
}
}
ps.executeBatch();
_ps.executeBatch();
ps.close();
_ps.close();
session.flush();
session.close();
return null;
}
});
}
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值