大量包含Insert语句的脚本文件批量执行导入数据

http://hi.baidu.com/ljm0211/item/acf758d40a4839866dce3fb3

        今天,同事让我帮忙处理这样一个问题:PM提供了数十个<table name>.dat文件,每个文件中包含大量的Insert语句,比较大的dat文件达到了700多M,如何将这些数据快速的导入数据库中?
        最直接的做法是执行这些Insert语句,不过担心速度比较慢,或者大量的Insert语句执行,数据库的撤销段不够大导致出错。之前使用过Sql loader来进行过大量数据的导入,考虑能否将Insert语句处理成为使用分隔符分隔的数据,以便sql loader进行描述,来使用sql loader导入。查看一下dat文件发现,文件中的Insert语句占用了多行,而且文件比较多,处理起来工作量很大,而且有一定难度。在了解了一下这部分工作需要在什么时间完成之后,觉得时间还是比较宽裕的,还是觉得用批量执行dat中脚本的方式来导入会好一点。写好批量处理脚本,在服务器上可以一直Run,不再需要人工干预,也大大减轻了工作量。具体做法如下:
        使用Actual Search工具取得dat文件名列表,通过UE处理成为能在sqlplus中运行的脚本文件batchrun.sql,文件内容及格式如下(在sqlplus中运行sql脚本文件,需要使用"@"后接脚本文件全路径):
@ Z:\tab1.dat
@ Z:\tab2.dat
……
……
……
@ Z:\tabn.dat
        现在还有一个问题就是如果脚本在执行过程中某些sql出错如何记入log,以便查看。在sqlplus中使用spool命令来将执行结果记入log。
用法:
    在执行脚本前执行:spool <log file name>
    然后执行脚本
    脚本执行结束后执行命令关闭结果输出:spool off
        这样在批量执行的结果就写入了<log file name>文件中。
        好了,批量脚本在服务器上跑吧,你呢?该干什么干什么去吧,呵呵!

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值