浅谈exp/imp(下)

你可能 不了解的dump文件

在工作中,dump文件对于dba而言是再平常不过的文件了。不过因为dump文件是二进制文件,所以大家可能在平时使用中也不太关注,不过尽管如此,在导入dump文件的时候还是有很多的细节和技巧值得注意,可以避免一些不必要的问题。 [荆波1] 
如何查看dump文件的一些基本信息 
当你拿到一个dump文件的时候,不能盲目导入,我们可以基于当前的dump文件作一些基本的检查。 
比如我们可以查到dump文件导出的版本,时间,导出的用户。 
尽管dump文件是二进制文件,但是我们还是可以使用strings来得到一些信息。 

$ strings test.dump|head -10 
iEXPORT:V11.02.00 
RUSERS 
8192 
Sun Dec 28 6:54:27 2014test.dump 
#G#G 
#G#G 
-08:00 
BYTE 
UNUSED 
INTERPRETED 

根据上面的命令输出,我们得到了一些dump的基本信息,可以从第一行看出exp是基于11.2版本,第2行可以看出是基于用户模式导出的dump,如果是全库模式会显示为RENTIRE,表模式则为RTABLES,从第4行可以看出dump生成的时间戳等等。



如何得到dump中的表信息 
对于dump文件,我们可以解析出含有的表名,可以尝试使用如下的方式来实现,使用strings,awk,sed结合可以很方便的完成这个功能。 

$ strings test.dump |grep "CREATE TABLE "|awk '{print $3}'|sed 's/"//g' 
BALL_DATA 
BIG_INSERT 
CLOB_TEST 
COUNTRY_LST 
CTEST 
DATA 
DATA2

 对于数据量小的dump文件,这个方法非常有效,如果dump非常大,解析会稍稍有些慢,不过相比使用perl等方式解析,速度还是要快得多。
如何解析dump文件生成parfile

在上面的基础上,如果我们需要根据dump生成对应的parfile来做数据导入导出,可以使用如下的命令来解析dump生成parfile。

$ strings n1_ddl.dump|grep "CREATE TABLE"|awk '{print $3}'|sed 's/"//g'|awk '{ if(FNR==1) print "tables="$1 ; else print ","$1}'
tables=BIG_INSERT
,CLOB_TEST
,DATA
,NEW_DATA
,OLD_DATA
,PAR_DATA
,RATED_EVENT
,SMALL_INSERT

   parfile对于使用exp/imp如虎添翼,可以使数据导入导出更加规范,很多细节都可以在parfile中灵活定义,可以使得exp/imp可读性更强。

数据导入导出中的盲点

盲点1:需要考虑的外键影响
在导入dump文件的时候,外键也是一个很重要的因素,可能dump中含有一些表,有些表中存在外键,在数据迁移之类的项目中是很让人头疼的,你得基于外键考虑表的导入顺序,有些表得先导入,要不在数据插入的时候会报外键相关的ORA问题。 
可以使用如下的脚本来做一个基本过滤,可以考虑在过滤条件中嵌入一个dump中表的清单,可以更加精准的处理相关的外键。可以使用如下的脚本来动态生成对应的脚本来禁用外键。

SELECT

      'ALTER TABLE '||TABLE_NAME||' DISABLE  CONSTRAINT '|| CONSTRAINT_NAME||';' FROM USER_CONSTRAINTS WHERE

       CONSTRAINT_TYPE='R' UNION SELECT 'ALTER TABLE '||UCA.TABLE_NAME||' DISABLE  CONSTRAINT '|| UCA.CONSTRAINT_NAME||';'

FROM

       USER_CONSTRAINTS UCA ,

       (SELECT  CONSTRAINT_NAME

          FROM  USER_CONSTRAINTS

          WHERE CONSTRAINT_TYPE IN ('P','U')

) tmp

WHERE UCA.CONSTRAINT_TYPE = 'R'

  AND tmp.constraint_name = UCA.R_CONSTRAINT_NAME ;

生成的语句类似这样的形式。

ALTER TABLE ADD_TARGET DISABLE  CONSTRAINT ADD_TARGET_1FK;

 务必注意在disable constraint,在完成数据导入后,需要enable constraint的操作,就是把上面脚本中的disable改为enable即可。

 

盲点2:需要考虑的触发器影响
触发器在数据导入或者数据迁移中都会存在潜在的问题,如果你不了解应用中的触发器处理细节,就会发现在数据导入或者数据迁移的过程中,会莫名其妙多出来一部分数据,或者有些数据发生了变化。 
一般来说,可以和开发做简单的确认,大多数的情况下都是需要把触发器做disable操作,然后在数据导入之后再启用。

可以采用如下的脚本:

SELECT

      'ALTER TRIGGER ' ||TRIGGER_NAME||' DISABLE ;'

FROM

       USER_TRIGGERS; 

个人在使用trigger的过程中碰到过一些问题,就是因为没有注意到trigger的影响,结果本来表中含有100万数据,需要导入20万,结果导入后,发现总数据条数为130万了,那多出来的10万数据就是触发器中的相关逻辑插入的数据。

盲点3:buffer size的影响
buffer size的设置在数据导入中也是很重要的,如果dump存在一个较大的分区表,很可能导入的过程中就会跑出buffer size不够的错误,给你的导入工作带来很多影响。 
一般可以把buffer size设置的大一些,比如4M,9M都是不错的选择。



来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/23718752/viewspace-1718314/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/23718752/viewspace-1718314/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值