insert大量数据经验之谈

在很多时候,我们会需要对一个表进行插入大量的数据,并且希望在尽可能短的时间内完成该工作,这里,和大家分享下我平时在做大量数据insert的一些经验。

  前提:在做insert数据之前,如果是非生产环境,请将表的索引和约束去掉,待insert完成后再建索引和约束。

    1.

  1.    insert into tab1 select * from tab2;
  2.    commit;

  这是最基础的insert语句,我们把tab2表中的数据insert到tab1表中。根据经验,千万级的数据可在1小时内完成。但是该方法产生的arch会非常快,需要关注归档的产生量,及时启动备份软件,避免arch目录撑爆。

  2.

  1.   alter table tab1 nologging;
  2.   insert /*+ append */ into tab1 select * from tab2;
  3.   commit;
  4.   alter table tab1 logging;

 该方法会使得产生arch大大减少,并且在一定程度上提高时间,根据经验,千万级的数据可在45分钟内完成。但是请注意,该方法适合单进程的串行方式,如果当有多个进程同时运行时,后发起的进程会有enqueue的等待。注意此方法千万不能dataguard上用(不过要是在database已经force logging那也是不怕的,呵呵)!!

  3.

  1.   insert into tab1 select /*+ parallel */ * from tab2;
  2.   commit;

 对于select之后的语句是全表扫描的情况,我们可以加parallel的hint来提高其并发,这里需要注意的是最大并发度受到初始化参数parallel_max_servers的限制,并发的进程可以通过v$px_session查看,或者ps -ef |grep ora_p查看。

  4.

  1.   alter session enable parallel dml;
  2.   insert /*+ parallel */ into tab1 select * from tab2;
  3.   commit;

 与方法2相反,并发的insert,尚未比较和方法2哪个效率更高(偶估计是方法2快),有测试过的朋友欢迎补充。

  5.

  1.   insert into tab1 select * from tab2 partition (p1);
  2.   insert into tab1 select * from tab2 partition (p2);
  3.   insert into tab1 select * from tab2 partition (p3);
  4.   insert into tab1 select * from tab2 partition (p4);

 对于分区表可以利用tab1进行多个进程的并发insert,分区越多,可以启动的进程越多。我曾经试过insert 2.6亿行记录的一个表,8个分区,8个进程,如果用方法2,单个进程完成可能要40分钟,但是由于是有8个分区8个进程,后发进程有enqueue,所以因此需要的时间为40分钟×8;但是如果用方法5,虽然单个进程需要110分钟,但是由于能够并发进程执行,所以总共需要的时间就约为110分钟了。

  6.

  1.   DECLARE
  2.   TYPE dtarray IS TABLE OF VARCHAR2(20) INDEX BY BINARY_INTEGER;
  3.   v_col1 dtarray;
  4.   v_col2 dtarray;
  5.   v_col3 dtarray;
  6.   BEGIN
  7.   SELECT col1, col2, col3 BULK COLLECT
  8.   INTO v_col1, v_col2, v_col3
  9.   FROM tab2;
  10.   FORALL i IN 1 .. v_col1.COUNT
  11.   insert into tab1 WHERE tab1.col1 = v_col1;
  12.   END;

 用批量绑定(bulk binding)的方式。当循环执行一个绑定变量的sql语句时候,在PL/SQL 和SQL引擎(engines)中,会发生大量的上下文切换(context switches)。使用bulk binding,能将数据批量的从plsql引擎传到sql引擎,从而减少上下文切换过程,提升效率。该方法比较适合于在线处理,不必停机。

  7.

  1.   sqlplus -s user/pwd< runlog.txt
  2.   set copycommit 2;
  3.   set arraysize 5000;
  4.   copy from user/pwd@sid -
  5.   to user/pwd@sid -
  6.   insert tab1 using select * from tab2;
  7.   exit
  8.   EOF

  用copy的方法进行插入,注意此处insert没有into关键字。该方法的好处是可以设置copycommit和arrarysize来一起控制commit的频率,上面的方法是每10000行commit一次。

<!-- </div> -->
<script type=text/javascript charset=utf-8 src="http://static.bshare.cn/b/buttonLite.js#style=-1&uuid=&pophcol=3&lang=zh"></script> <script type=text/javascript charset=utf-8 src="http://static.bshare.cn/b/bshareC0.js"></script>
阅读(76) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~
评论热议
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值