行迁移/行链接的介绍
在实际的工作中我们经常会碰到一些oracle数据库性能较低的问题,当然,引起oracle数据库性能较低的原因是多方面的,我们能够通过一些正确的设计和诊断来尽量的避免一些oracle数据库性能不好,row migration (行迁移) & row chaining (行链接)就是其中我们可以尽量避免的引起oracle数据库性能低下的潜在问题。通过合理的诊断行迁移/行链接,我们可以较大幅度上提高oracle数据库的性能。
那究竟什么是行迁移/行链接呢,先让我们从oracle的block开始谈起。
操作系统的最小读写操作单元是操作系统的block,所以当创建一个oracle数据库的时候我们应该讲数据库的block size设置成为操作系统的block size的整数倍,oracle block是oracle数据库中读写操作的最小单元,oracle9i之前的oracle数据库版本中oracle block一旦在创建数据库的时候被设定后就没法再更改。为了在创建数据库之前确定一个合理的oracle block的大小,我们需要考虑一些因素,例如数据库本身的大小以及并发事务的数量等。使用一个合适的oracle block大小对于数据库的调优是非常重要的。oracle block的结构如下图所示:
图一:oracle block结构图
由上图我们可以看出,一个oracle block由三个部分组成,分别是数据块头、自由空间、实际数据三部份组成。
数据块头:主要包含有数据块地址的一些基本信息和段的类型,以及表和包含有数据的实际行的地址。
自由空间:是指可以为以后的更新和插入操作分配的空间,大小由pctfree和pctused两个参数影响。
实际数据:是指在行内存储的实际数据。
当创建或者更改任何表和索引的时候,oracle在空间控制方面使用两个存储参数:
pctfree:为将来更新已经存在的数据预留空间的百分比。
pctused:用于为插入一新行数据的最小空间的百分比。这个值决定了块的可用状态。可用的块时可以执行插入的块,不可用状态的块只能执行删除和修改,可用状态的块被放在freelist中。
当表中一行的数据不能在一个数据block中放入的时候,这个时候就会发生两种情况,一种是行链接,另外一种就是行迁移了。
行链接产生在第一次插入数据的时候如果一个block不能存放一行记录的情况下。这种情况下,oracle将使用链接一个或者多个在这个段中保留的block存储这一行记录,行链接比较容易发生在比较大的行上,例如行上有long、long raw、lob等数据类型的字段,这种时候行链接是不可避免的会产生的。
当一行记录初始插入的时候事可以存储在一个block中的,由于更新操作导致行长增加了,而block的自由空间已经完全满了,这个时候就产生了行迁移。在这种情况下,oracle将会迁移整行数据到一个新的block中(假设一个block中可以存储下整行数据),oracle会保留被迁移行的原始指针指向新的存放行数据的block,这就意味着被迁移行的row id是不会改变的。
当发生了行迁移或者行链接,对这行数据操作的性能就会降低,因为oracle必须要扫描更多的block来获得这行的信息。
下面举例来具体说明行迁移/行链接的产生过程。
先创建一个pctfree为20和pctused为50的测试表:
create table test(
col1 char(20),
col2 number)
storage (
pctfree 20
pctused 50);
当插入一条记录的时候,oracle会在free list中先去寻找一个自由的块,并且将数据插入到这个自由块中。而在free list中存在的自由的块是由pctfree值决定的。初始的空块都是在free list中的,直到块中的自由空间达到pctfree的值,此块就会从free list中移走,而当此块中的使用空间低于pctused的时候,此块又被重新放到free list中。
oracle使用free list机制可以大大的提高性能,对于每次的插入操作,oracle只需要查找free list就可以了,而不是去查找所有的block来寻找自由空间。
假设第一次插入数据使用的一个空的block,如下图所示:
图二:oracle空的block结构图
假设插入第一条记录的时候占用一个block的10%的空间(除去block头占去的大小),剩余的自由空间90%大于pctfree20%,因此这个block还将继续为下次的插入操作提供空间。
图三:插入10%后的oracle block结构图
再连续插入七条记录,使block的剩余自由空间剩下20%,此时,这个block将要从free list中移走,如果再插入记录,oracle将再free list中寻找下一个空余的block去存放后来插入的数据。
图四:插入80%后的oracle block结构图
此时如果去更新第一条插入的记录,使其行长增加15%,oracle将会使用这个block中剩余的20%的自由空间来存放此行数据,如果再更新第二条记录,同样的使其行长增加15%,而此block中只剩下5%的自由空间,不够存放更新的第二条记录,于是oracle会在free list中寻找一个有自由空间(10%+15%)的block来存放这行记录的block去存储,在原来的block中保存了指向新的block的指针,原来这行记录的row id保持不变,这个时候就产生了行迁移。
而当我们插入一条新纪录的时候,如果一个blcok不足以存放下这条记录,oracle就会寻找一定数量的block一起来容纳这条新的记录,这个时候就产生了行链接,行链接主要产生在lob、clob、blob和大的va行链接har2数据类型上。
具体我们通过下面的一个试验来查看行链接和行迁移是如何产生并在数据文件中体现出来的。
先查看allan这个表空间的数据文件号,为了便于测试,我只建立了一个数据文件。
sql> select file_id from dba_data_files where tablespace_name=allan;
file_id
----------
23
创建一个测试表test:
sql> create table test ( x int primary key, a char(2000), b char(2000), c char(2000), d char(2000), e char(2000) ) tablespace allan;
table created.
因为我的数据库的db_block_size是8k,所以我创建的表有五个字段,每个占2000个字节,这样一行记录大约10k,就能超过一个block的大小了。
然后插入一行记录,只有一个字段的:
sql> insert into test(x) values (1);
1 row created.
sql> commit;
commit complete.
查找这行记录所在的block,并dump出来:
sql> select dbms_rowid.rowid_block_number(rowid) from test;
dbms_rowid.rowid_block_number(rowid)
------------------------------------
34
sql> alter system dump datafile 23 block 34;
system altered.
在udump目录下查看trace文件的内容如下:
start dump data blocks tsn: 34 file#: 23 minblk 34 maxblk 34
buffer tsn: 34 rdba: 0x05c00022 (23/34)
scn: 0x0000.013943f3 seq: 0x01 flg: 0x02 tail: 0x43f30601
frmt: 0x02 chkval: 0x0000 type: 0x06=trans data
block header dump: 0x05c00022
object id on block? y
seg/obj: 0x3ccd csc: 0x00.13943ef itc: 2 flg: o typ: 1 - data
fsl: 0 fnx: 0x0 ver: 0x01
itl xid uba flag lck scn/fsc
0x01 0x000a.02e.00000ad7 0x00800036.03de.18 --u- 1 fsc 0x0000.013943f3
0x02 0x0000.000.00000000 0x00000000.0000.00 ---- 0 fsc 0x0000.00000000
data_block_dump,data header at 0xadb505c
===============
tsiz: 0x1fa0
hsiz: 0x14
pbl: 0x0adb505c
bdba: 0x05c00022
76543210
flag=--------
ntab=1
nrow=1
frre=-1
fsbo=0x14
fseo=0x1f9a
avsp=0x1f83
tosp=0x1f83
0xe:pti[0] nrow=1 offs=0
0x12:pri[0] offs=0x1f9a
block_row_dump:
tab 0, row 0, @0x1f9a
tl: 6 fb: --h-fl-- lb: 0x1 cc: 1
col 0: [ 2] c1 02
end_of_block_dump
end dump data blocks tsn: 34 file#: 23 minblk 34 maxblk 34
对其中的一些信息做一些解释:
fb:h是指行记录的头,l是指行记录的最后一列,f是指行记录的第一列。
cc:列的数量
nrid:对于行链接或者行迁移来说的下一个row id的值
由上面的dump信息我们可以看出来当前表test是没有行链接或者行迁移的。
然后更新test表,并重新dump出来:
sql> update test set a=test,b=test,c=test,d=test,e=test where x=1;
1 row updated.
sql> commit;
commit complete.
此时应该有行迁移/行链接产生了。
sql> alter system dump datafile 23 block 34;
system altered.
在udump目录下查看trace文件的内容如下:
start dump data blocks tsn: 34 file#: 23 minblk 34 maxblk 34
buffer tsn: 34 rdba: 0x05c00022 (23/34)
scn: 0x0000.0139442b seq: 0x01 flg: 0x02 tail: 0x442b0601
frmt: 0x02 chkval: 0x0000 type: 0x06=trans data
block header dump: 0x05c00022
object id on block? y
seg/obj: 0x3ccd csc: 0x00.1394429 itc: 2 flg: - typ: 1 - data
fsl: 0 fnx: 0x0 ver: 0x01
itl xid uba flag lck scn/fsc
0x01 0x000a.02e.00000ad7 0x00800036.03de.18 c--- 0 scn 0x0000.013943f3
0x02 0x0004.002.00000ae0 0x0080003b.0441.11 --u- 1 fsc 0x0000.0139442b
data_block_dump,data header at 0xadb505c
===============
tsiz: 0x1fa0
hsiz: 0x14
pbl: 0x0adb505c
bdba: 0x05c00022
76543210
flag=--------
ntab=1
nrow=1
frre=-1
fsbo=0x14
fseo=0x178a
avsp=0x177c
tosp=0x177c
0xe:pti[0] nrow=1 offs=0
0x12:pri[0] offs=0x178a
block_row_dump:
tab 0, row 0, @0x178a
tl: 2064 fb: --h-f--n lb: 0x2 cc: 3
nrid: 0x05c00023.0
col 0: [ 2] c1 02
col 1: [2000]
74 65 73 74 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20
…………
col 2: [48]
74 65 73 74 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20
end_of_block_dump
end dump data blocks tsn: 34 file#: 23 minblk 34 maxblk 34
我们不难看出,nrid出现了值,指向了下一个row id,证明刚刚的update操作使这行记录产生了行链接或者行迁移了。
二、行迁移/行链接的检测
通过前面的介绍我们知道,行链接主要是由于数据库的db_block_size不够大,对于一些大的字段没法在一个block中存储下,从而产生了行链接。对于行链接我们除了增大db_block_size之外没有别的任何办法去避免,但是因为数据库建立后db_block_size是不可改变的(在9i之前),对于oracle9i的数据库我们可以对不同的表空间指定不同的db_block_size,因此行链接的产生几乎是不可避免的,也没有太多可以调整的地方。行迁移则主要是由于更新表的时候,由于表的pctfree参数设置太小,导致block中没有足够的空间去容纳更新后的记录,从而产生了行迁移。对于行迁移来说就非常有调整的必要了,因为这个是可以调整和控制清除的。
如何检测数据库中存在有了行迁移和行链接呢?我们可以利用oracle数据库自身提供的脚本utlchain.sql(在$oracle_home/rdbms/admin目录下)生成chained_rows表,然后利用analyze table table_name list chained rows into chained_rows命令逐个分析表,将分析的结果存入chained_rows表中。从utlchain.sql脚本中我们看到chained_rows的建表脚本,对于分区表,cluster表都是适用的。然后可以使用拼凑语句的办法生成分析所需要的表的脚本,并执行脚本将具体的分析数据放入chained_rows表中,例如下面是分析一个用户下所有表的脚本:
spool list_migation_rows.sql
set echo off
set heading off
select analyze table || table_name || list chained rows into chained_rows; from user_tables;
spool off
然后查询chained_rows表,可以具体查看某张表上有多少的行链接和行迁移。
select table_name, count(*) from chained_rows group by table_name;
当然,也可以查询v$sysstat视图中的’table fetch continued row’列得到当前的行链接和行迁移数量。
select name, value from v$sysstat where name = table fetch continued row;
可以使用如下的脚本来直接查找存在有行链接和行迁移的表,自动完成所有的分析和统计。
accept owner prompt " enter the schema name to check for row chaining (return for all): "
prompt
prompt
accept table prompt " enter the table name to check (return for all tables owned by &owner): "
prompt
prompt
set head off serverout on term on feed off veri off echo off
!clear
prompt
declare
v_owner varchar2(30);
v_table varchar2(30);
v_chains number;
v_rows number;
v_count number := 0;
sql_stmt varchar2(100);
dynamiccursor integer;
dummy integer;
cursor chains is
select count(*) from chained_rows;
cursor analyze is
select owner, table_name
from sys.dba_tables
where owner like upper(%&owner%)
and table_name like upper(%&table%)
order by table_name;
begin
dbms_output.enable(64000);
open analyze;
fetch analyze into v_owner, v_table;
while analyze%found loop
dynamiccursor := dbms_sql.open_cursor;
sql_stmt := analyze table ||v_owner||.||v_table|| list chained rows into chained_rows;
dbms_sql.parse(dynamiccursor, sql_stmt, dbms_sql.native);
dummy := dbms_sql.execute(dynamiccursor);
dbms_sql.close_cursor(dynamiccursor);
open chains;
fetch chains into v_chains;
if (v_chains != 0) then
if (v_count = 0) then
dbms_output.put_line(chr(9)||chr(9)||chr(9)||<<<<< chained rows found >>>>>);
v_count := 1;
end if;
dynamiccursor := dbms_sql.open_cursor;
sql_stmt := select count(*) v_rows|| from ||v_owner||.||v_table;
dbms_sql.parse(dynamiccursor, sql_stmt, dbms_sql.native);
dbms_sql.define_column(dynamiccursor, 1, v_rows);
dummy := dbms_sql.execute(dynamiccursor);
dummy := dbms_sql.fetch_rows(dynamiccursor);
dbms_sql.column_value(dynamiccursor, 1, v_rows);
dbms_sql.close_cursor(dynamiccursor);
dbms_output.put_line(v_owner||.||v_table);
dbms_output.put_line(chr(9)||---> has ||v_chains|| chained rows and ||v_rows|| num_rows in it!);
dynamiccursor := dbms_sql.open_cursor;
sql_stmt := truncate table chained_rows;
dbms_sql.parse(dynamiccursor, sql_stmt, dbms_sql.native);
dummy := dbms_sql.execute(dynamiccursor);
dbms_sql.close_cursor(dynamiccursor);
v_chains := 0;
end if;
close chains;
fetch analyze into v_owner, v_table;
end loop;
if (v_count = 0) then
dbms_output.put_line(no chained rows found in the ||v_owner|| owned tables!);
end if;
close analyze;
end;
/
set feed on head on
prompt
三、行迁移和行链接的清除
由于对于行链接来说只能增大db_block_size来清除,而db_block_size在创建了数据库后又是不能改变了的,所以这里对行链接的清除不做过多的叙述了,主要是针对行迁移来谈谈在实际的生产系统中如何去清除。
对于行迁移的清除,一般来说分为两个步骤:第一步,控制住行迁移的增长,使其不在增多;第二步,清除掉以前存在的行迁移。
众所周知,行迁移产生的主要原因是因为表上的pctfree参数设置过小导致的,而要实现第一步控制住行迁移的增长,就必须设置好一个正确合适的pctfree参数,否则即使清除了当前的行迁移后马上又会产生很多新的行迁移。当然,这个参数也不是越大越好的,如果pctfree设置的过大,会导致数据块的利用率低,造成空间的大量浪费,因此必须设置一个合理的pctfree参数。如何去确定一个表上合理的pctfree参数呢,一般来说有两种方法。
第一种是定量的的设定方法,就是利用公式来设定pctfree的大小。先使用analyze table table_name estimate statistics命令来分析要修改pctfree的表,然后查看user_tables中的avg_row_len列值,得到一个平均行长avg_row_len1,然后大量的对表操作之后,再次使用上述命令分析表,得到第二个平均行长avg_row_len2,然后运用公式100 * (avg_row_len2-avg_row_len1)/(avg_row_len2-avg_row_len1 + 原始的avg_row_len)得出的结果就是定量计算出来的一个合适的pctfree的值。这种方法因为是定量计算出来的,可能不一定会很准确,而且因为要分析表,所以对于使用rbo执行计划的系统不是很适用。例如:avg_row_len_1 = 60,avg_row_len_2 = 70,则平均修改量为 10,pctfree 应调整为 100 * 10 /(10 + 60)= 16.7% 。
第二种是差分微调的方法,先查询到当前表的pctfree的值,然后监控和调整pctfree参数,每次增加一点pctfree的大小,每次增加的比例不要超过5个百分点,然后使用analyze table table_name list chained rows into chained_rows命令分析每次所有的行迁移和行链接的增长情况,对于不同的表采取不同的增长比例,对于行迁移增长的比较快的表pctfree值就增加的多点,对于增长慢的表就增加的少点,直到表的行迁移基本保持不增长了为止。但是注意不要把pctfree调的过大,一般在40%以下就可以了,否则会造成空间的很大浪费和增加数据库访问的io。
使用上述的方法控制住了当前表的行迁移的增长之后,就可以开始清除之前表上存在的行迁移了。是否清除掉行迁移,关系到系统的性能是否能够有很大的提高。因此,对于以前存在的行迁移是一定而且必须要清除掉的。清除掉已经存在的行迁移有很多方法,但是并不是所有的方法都能适用所有的情况,例如表中的记录数多少,表上的关联多少、表上行迁移的数量多少等等这些因素都会是成为制约你使用什么方法清除的条件,因此,根据表的特点和具体情况的不同我们应该采用不同的方法去清除行迁移。下面我将逐一介绍各种清除行迁移的方法以及它们各自适用的不同情况。
方法一:传统的清除行迁移的方法
具体步骤如下:
1. 执行$oracle_home/rdbms/admin目录下的utlchain.sql脚本创建chained_rows表。
@$oracle_home/rdbms/admin/utlchain.sql
2. 将存在有行迁移的表(用table_name代替)中的产生行迁移的行的rowid放入到chained_rows表中。
analyze table table_name list chained rows into chained_rows;
3. 将表中的行迁移的row id放入临时表中保存。
create table table_name_temp as
select * from table_name
where rowid in
(select head_rowid from chained_rows
where table_name = table_name);
4. 删除原来表中存在的行迁移的记录行。
delete table_name
where rowid in
(select head_rowid
from chained_rows
where table_name = table_name);
5. 从临时表中取出并重新插入那些被删除了的数据到原来的表中,并删除临时表。
insert into table_name select * from table_name_temp;
drop table table_name_temp;
对于这种传统的清除rm的方法,优点是执行起来过程比较简单,容易实现。但是这种算法的缺陷是没有考虑到表关联的情况,在大多数数据库中很多表都是和别的表之间有表关联的,有外键的限制,这样就造成在步骤3中根本无法delete掉存在有行迁移的记录行,所以这种方法能够适用的表的范围是有限的,只能适用于表上无任何外键关联的表。由于这种方法在插入和删除数据的时候都没有disable掉索引,这样导致主要消耗时间是在删除和插入时维持索引树的均衡上了,这个对于如果记录数不多的情况时间上还比较短,但是如果对于记录数很多的表这个所消耗的时间就不是能够接受的了。显然,这种方法在处理大数据量的表的时候显然是不可取的。
以下是一个具体在生产数据库上清除行迁移的例子,在这之前已经调整过表的pctfree参数至一个合适的值了:
sql>@$oracle_home/rdbms/admin/utlchain.sql
table created.
sql> analyze table customer list chained rows into chained_rows;
table analyzed.
sql>select count(*) from chained_rows;
table_name count(*)
------------------------------ ----------
customer 21306
1 rows selected.
查看在customer表上存在的限制:
sql>select constraint_name,constraint_type,table_name from user_constraints where table_name=customer;
constraint_name c table_name
------------------------------ - ------------------------------
pk_customer1 p customer
sql>select constraint_name,constraint_type,table_name from user_constraints where r_constraint_name=pk_customer1;
no rows selected
sql> create table customer_temp as
select * from customer where rowid in
(select head_rowid from chained_rows
where table_name = customer);
table created.
sql>select count(*) from customer;
count(*)
----------
338299
sql> delete customer where rowid in
(select head_rowid
from chained_rows
where table_name = customer);
21306 rows deleted.
sql> insert into customer select * from customer_temp;
21306 rows created.
sql> drop table customer_temp;
table dropped.
sql> commit;
commit complete.
sql> select count(*) from customer;
count(*)
----------
338299
sql> truncate table chained_rows;
table truncated.
sql> analyze table customer list chained rows into chained_rows;
table analyzed.
sql> select count(*) from chained_rows;
count(*)
----------
0
以上整个清除两万多行的行迁移过程在三分钟左右,而且全部都在联机的状态下完成,基本上不会对业务有什么影响,唯一就是在要清除行迁移的表上不能有对外键的限制,否则就不能采用这个方法去清除了。
方法二:改进了的传统清除行迁移的方法
1. 执行$oracle_home/rdbms/admin目录下的utlchain.sql脚本创建chained_rows表。
2. 禁用所有其它表上关联到此表上的所有限制。
3. 将表中的行迁移的row id放入临时表中保存。
4. 删除原来表中存在的行迁移的记录行。
5. 从临时表中取出并重新插入那些被删除了的数据到原来的表中,并删除临时表。
6. 启用所有其它表上关联到此表上的所有限制。
这种算法是对传统算法的一种改进,对于使用这种算法来清除行迁移,考虑到了表之间的关联,还可以灵活的利用的toad工具生成的表关联信息,是一种比较适合于清除行迁移的一种方法。但是因为使用这种方法后来需要重建索引,如果记录数很大,比如说上千万条以上的记录的表,就不是很合适了,因为这个重建索引的时间会很长,是线性时间复杂度的,而重建索引是会导致索引所在的表被锁定的,从而导致插入不了新的记录,重建索引的时间太长导致记录长时间插入不了是会严重影响应用的,甚至导致数据的丢失,因此这个是使用这个方法前必须要考虑到的一个重要因素;对于8i以上的版本可以使用online的方法来重建索引,这样不会导致锁表,但是会有额外更多的开销,时间会很长。再者,因为这种方法在插入记录和删除记录都是带着索引的,如果表上的行迁移比较多,这样耗时间会比较长,而且占用资源也会比较大,因此只适用于表上行迁移存在的比较少的表。总的来说,这种方法对于表记录太多或者是表上的行迁移太多的情况都不是很适用,比较适合表记录少和表上行迁移都不太多的情况。
以下是一个具体在生产数据库上清除行迁移的例子,在这之前已经调整过表的pctfree参数至一个合适的值了:
sql>select index_name,index_type,table_name from user_indexes where table_name=terminal;
index_name index_type table_name
-----------------------------------------------------------------
index_terminal_terminalcode normal terminal
i_terminal_id_type normal terminal
i_terminal_ot_oid normal terminal
pk_terminal_id normal terminal
ui_terminal_goodis_ssn normal terminal
sql>select constraint_name,constraint_type,table_name from user_constraints where r_constraint_name=pk_terminal_id;
constraint_name c table_name
------------------------------ - ------------------------------
sys_c003200 r conn
sql>alter table conn disable constraint sys_c003200;
table altered.
sql>create table terminal_temp as
select * from terminal
where rowid in
(select head_rowid from chained_rows
where table_name = terminal);
table created.
sql>select count(*) from terminal_temp;
count(*)
----------
8302
sql>delete terminal
where rowid in
(select head_rowid
from chained_rows
where table_name = terminal);
8302 rows deleted.
sql>insert into terminal select * from terminal_temp;
8302 rows created.
sql>alter table conn disable constraint sys_c003200;
table altered.
sql>select count(*) from terminal;
count(*)
----------
647799
sql>truncate table chained_rows;
table truncated.
sql>analyze table terminal list chained rows into chained_rows;
table analyzed.
sql>select count(*) from chained_rows;
count(*)
----------
0
从上面过程中可以看出,对terminal这张表的行迁移清除耗时总共不到五分钟的时间,总体来说还是比较快的。从我在生产数据库中清除行迁移的经验来说,这种方法基本适用于大部分存在有行迁移的表。
方法三:使用toad工具清除行迁移的方法
1. 备份要清除rm的表。
rename table_name to table_name_temp;
2. drop 所有其它表上关联到table_name的外键限制。
select constraint_name,constraint_type,table_name from user_constraints where r_constraint_name in (select constraint_name from user_constraints where table_name=table_name and constraint_type=’p’);
alter table table_name drop constraint xxxx;(xxxx为上述的查询结果)
3. 重建1中被rename的表。
create table table_name as select * from table_name_temp where 0 = 1;
4. 重建表中原来的数据。
insert /*+ append */ into table_name select * from table_name_temp;
5. 删除在table_name_temp上的索引和关联其他表的外键。
6. 在table_name上建立和原来一样的索引、主键和所有的外键限制。
7. 重新编译相关的存储过程、函数和包。
8. 删除表table_name_temp。
对于使用这种方法来清除行迁移,全部的代码都是可以由toad工具来生成的。由于此方法把表上的关联考虑进去了,也是一种比较的全面的考虑的一种清除方法,而且在清除过程中重建了表和索引,对于数据库的存储和性能上都有提高。因为这种方法一开始是rename表为临时表,然后重建一个新表出来的,因此需要两倍的表的空间,因此在操作之前一定要检查要清除的表所在的表空间的free空间是否足够;但是也有一定的缺陷,因为在新表中重新插入原来的数据后需要重建索引和限制,因此在时间和磁盘的空间上都有比较大的开销,而且对于前台的应用可能会有一段时间的中断,当然,这个中断时间就主要是消耗在重建索引和重建限制上了,而时间的长短跟需要重建索引和限制的多少以及表的记录多少等等因素都有关系。使用这种方法对于7*24小时要求的系统上清除行迁移不是很合适,因为使用这种方法会导致系统可能有一段时间的停机,如果系统的实时性比较高,这种方法就不是很适用了。
方法四:使用exp/imp工具清除行迁移的方法
1. 使用exp导出存在有行迁移的表。
2. 然后truncate原来的表。
3. imp开始导出的表。
4. 重建表上所有的索引。(可选)
使用这种方法可以不用重建索引,省去了这部分时间,但是完成之后索引的使用效率不会很高,最好是在以后逐步的在线重建索引,这样是可以不需要中断业务的。但是需要考虑的是imp的时候会比较慢,而且会占用比较大的io,应该选择在应用不是很繁忙的时候做这项工作,否则会对应用的正常运行产生较大的影响。对于这种方法还存在有一个比较大的弊端,就是在exp表的时候要保证该表是没有数据的更新或者是只读状态的,不能对表有插入或者更新操作,否则会导致数据的丢失。
sql> select count(*) from test;
count(*)
----------
169344
sql> truncate table chained_rows;
table truncated.
sql> analyze table test list chained rows into chained_rows;
table analyzed.
sql> select count(*) from chained_rows;
count(*)
----------
3294
$ exp allan/allan file=test.dmp tables=test
export: release 9.2.0.3.0 - production on sun jun 6 13:50:08 2004
copyright (c) 1982, 2002, oracle corporation. all rights reserved.
connected to: oracle9i enterprise edition release 9.2.0.3.0 - production
with the partitioning, olap and oracle data mining options
jserver release 9.2.0.3.0 - production
export done in zhs16gbk character set and al16utf16 nchar character set
about to export specified tables via conventional path ...
. . exporting table test 169344 rows exported
export terminated successfully without warnings.
$ sqlplus allan/allan
sql*plus: release 9.2.0.3.0 - production on sun jun 6 13:50:43 2004
copyright (c) 1982, 2002, oracle corporation. all rights reserved
connected to:
oracle9i enterprise edition release 9.2.0.3.0 - production
with the partitioning, olap and oracle data mining options
jserver release 9.2.0.3.0 - production
sql> truncate table test;
table truncated.
sql> exit
disconnected from oracle9i enterprise edition release 9.2.0.3.0 - production
with the partitioning, olap and oracle data mining options
jserver release 9.2.0.3.0 - production
$ imp allan/allan file=test.dmp full=y ignore=y buffer=5000000
import: release 9.2.0.3.0 - production on sun jun 6 13:51:24 2004
copyright (c) 1982, 2002, oracle corporation. all rights reserved.
connected to: oracle9i enterprise edition release 9.2.0.3.0 - production
with the partitioning, olap and oracle data mining options
jserver release 9.2.0.3.0 - production
export file created by export:v09.02.00 via conventional path
import done in zhs16gbk character set and al16utf16 nchar character set
. importing allans objects into allan
. . importing table "test" 169344 rows imported
import terminated successfully without warnings.
$ sqlplus allan/allan
sql*plus: release 9.2.0.3.0 - production on sun jun 6 13:52:53 2004
copyright (c) 1982, 2002, oracle corporation. all rights reserved.
connected to:
oracle9i enterprise edition release 9.2.0.3.0 - production
with the partitioning, olap and oracle data mining options
jserver release 9.2.0.3.0 - production
sql> select count(*) from test;
count(*)
----------
169344
sql> select index_name from user_indexes where table_name=test;
index_name
------------------------------
obj_index
sql> alter index obj_index rebuild online;
index altered.
sql> truncate table chained_rows;
table truncated.
sql> analyze table test list chained rows into chained_rows;
table analyzed.
sql> select count(*) from chained_rows;
count(*)
----------
0
方法五:使用move命令来清除行迁移的方法
1. 查看要清除行迁移的表所在的表空间。
select table_name,tablespace_name from user_tables where table_name=table_name’;
2. 查看要清除行迁移的表上的具体索引。
select index_name,table_name from user_indexes where table_name=‘table_name’;
3. move要清除rm的表到指定的表空间中去。
alter table table_name move tablespace tablespace_name;
4. 重建表上的所有索引。
alter index index_name rebuild;
这种方法适用于8i及其以上的数据库版本,主要是利用数据库的一个move命令来实现行迁移的清除的,move命令的实质其实就是insert … select的一个过程,在move表的过程中是需要两倍的原来的表大小的,因为中间过程是要保留原来的旧表的,新表创建完成后旧表就被删除并释放空间了。move的时候要注意后面一定要加上表空间参数,所以必须要先知道表所在的表空间;因为move表之后需要重建索引,所以之前要确定表上的所有的索引。
这种方法对于表记录数很大或者表上索引太多的情况不太适用,因为本身的move就会很慢, 而且move表的时候会要锁定表,时间长了会导致对表的其他操作出现问题,导致数据插入不了丢失数据;move表后还要重建索引,索引太多了的话重建的时间也会太长;再者,这个方法也比较消耗资源,因此强烈建议在业务不繁忙的时候再执行。
以下是一个具体在生产数据库上清除行迁移的例子,在这之前已经调整过表的pctfree参数至一个合适的值了:
sql>analyze table service list chained rows into chained_rows;
table analyzed.
sql>select count(*) from chained_rows;
count(*)
----------
9145
sql>select table_name,tablespace_name from user_tables where table_name=service;
table_name tablespace_name
------------------------------ ------------------------------
service data
sql>select index_name,table_name from user_indexes where table_name=service;
index_name table_name
------------------------------ ------------------------------
i_service_accountnum service
i_service_dateactivated service
i_service_sc_s service
i_service_servicecode service
pk_service_sid service
sql>select count(*) from service;
count(*)
----------
518718
sql>alter table service move tablespace data;
table altered.
sql>alter index i_service_accountnum rebuild;
index altered.
sql>alter index i_service_dateactivated rebuild;
index altered.
sql>alter index i_service_sc_s rebuild;
index altered.
sql>alter index i_service_servicecode rebuild;
index altered.
sql>alter index pk_service_sid rebuild;
index altered.
sql>truncate table chained_rows;
table truncated.
sql>analyze table service list chained rows into chained_rows;
table analyzed.
sql>select count(*) from chained_rows;
count(*)
----------
0
利用move命令来清除行迁移,执行的命令都相对比较的简单,上面的例子中清除表servcie中的行迁移的时间大概在五分钟左右,其中move命令执行的时间为不到两分钟,也就是锁表的时间大概是不到两分钟,对于大多数的应用来说一般问题都是不大的,放在系统闲的时候执行基本上不会对应用产生什么太多的影响。
方法六:对于一些行迁移数量巨大而且表记录数巨大的表的行迁移的清除方法
1. 使用toad工具或者别的方法获取存在有大量行迁移并且表记录很大的表的重建表的sql,然后保存为脚本。
2. 使用rename命令将原始表重命名为一个备份表,然后删除别的表对原始表上的限制、以及原始表上的外键和索引。
3. 利用1中生成的脚本重建原始表,以及表上的限制,外键,索引等对象。
4. 然后按表模式导出2中备份的表,然后导入到另外的一个临时中转的数据库库中,因为表的名字已经改变,所以导入后需要rename表为原来的名字,然后重新导出,最后再导入到原来的数据库中。
这种方法主要是用来针对一些数据量比较大,并且表上的行迁移也比较多的表的行迁移清除。对于这些大表的行迁移的清除,正常来说都需要停应用一段较长时间才能够清除掉,让人感觉比较的头疼,对于7*24小时的应用来说,down机的时间越长损失则越大,当然是要尽量的减短down机的时间。但是因为表本身比较大,不管怎样做什么操作都是会比较耗费时间和资源的,但是如果应用在某段时间内主要是以插入数据为主,更新数据和删除数据都很少的,因此可以考虑可以采用这么一种方法:先重命名表,然后重新建立一个和原来一样的表,用来保证之后的应用的数据是可以正常插入的,从而使应用不用停很久,因为重建一个没有任何数据的表结构的过程是很短暂的,大概需要几秒钟的时间,而重建好表了后就能保证应用能够正常的写入数据,从而使应用几乎不用停顿,然后把开始重命名的原始表按表模式导出,因为表的名字已经被改变,因此需要一个临时库来导入这些数据,然后重命名回原来的名字,然后按原来的表名导出后再重新导入原始数据库,这样操作起来虽然会比较麻烦,但是却是一种很有效很实际的方法,速度也很快,导出后导入,因为本身表结构已经建立好了,不需要其他任何的多的操作,而且最关键的是这种方法所需要的down机时间是最短的。
sql>alter table user.pay rename to pay_x ;
然后导出pay_x表;
$ exp user/user file=pay_x.dmp tables=pay_x
sql>alter table user.batchpaymentdetail drop constraint fk_batchpaymentdetail_opayid ;
sql>alter table user.depositclassify drop constraint fk_depositclassify2 ;
sql>alter table user.depositcreditlog drop constraint fk_depositcreditlog2 ;
sql>alter table user.deposit drop constraint sys_c003423 ;
sql>alter table user.pay_x drop constraint sys_c003549 ;
sql>drop index user.i_pay_staffid ;
sql>create table user.pay
(
payid number(9),
accountnum number(9),
total number(12,2),
prevpay number(12,2),
pay number(12,2),
staffid number(9),
processdate date,
payno char(12),
type char(2) default 0,
paymentmethod char(1) default 0,
paymentmethodid varchar2(20),
bankaccount varchar2(32),
paymentid number(9),
status char(1) default 0,
memo varchar2(255),
serviceid number(9),
currentdepositid number(9),
shouldprocessdate date default sysdate,
originalexpiredate date,
originalcanceldate date,
expiredate date,
canceldate date,
deposittype char(1)
)
tablespace user
pctused 95
pctfree 5
initrans 1
maxtrans 255
storage (
initial 7312k
next 80k
minextents 1
maxextents 2147483645
pctincrease 0
freelists 1
freelist groups 1
buffer_pool default
)
nologging
nocache
noparallel;
sql>create index user.i_pay_staffid on user.pay
(staffid)
nologging
tablespace user
pctfree 5
initrans 2
maxtrans 255
storage (
initial 1936k
next 80k
minextents 1
maxextents 2147483645
pctincrease 0
freelists 1
freelist groups 1
buffer_pool default
)
noparallel;
sql>create unique index user.pk_pay_id on user.pay
(payid)
nologging
tablespace user
pctfree 5
initrans 2
maxtrans 255
storage (
initial 1120k
next 80k
minextents 1
maxextents 2147483645
pctincrease 0
freelists 1
freelist groups 1
buffer_pool default
)
noparallel;
sql>alter table user.pay add (
foreign key (staffid)
references user.staff (staffid));
sql>alter table user.depositclassify add
constraint fk_depositclassify2
foreign key (payid)
references user.pay (payid) ;
sql>alter table user.depositcreditlog add
constraint fk_depositcreditlog2
foreign key (payid)
references user.pay (payid) ;
sql>alter function "user"."generatepayno" compile ;
sql>alter procedure "user"."engenderprvpay" compile ;
sql>alter procedure "user"."isap_engenderprvpay" compile ;
sql>alter procedure "user"."spaddcreditdeposit" compile ;
sql>alter procedure "user"."spadddepositwithoutcard" compile ;
sql>alter procedure "user"."spadjustlwdeposit" compile ;
……
然后将导出的表pay_x的dmp文件导入一个临时的数据库中,然后在临时数据库中将其表名重新命名为pay,再按表模式将其导出。
imp user/user file= pay_x.dmp tables=pay ignore=y
sql>rename pay_x to pay;
$ exp user/user file=pay.dmp tables=pay
最后将这个dmp文件导入正式的生产数据库中即可。
以上的过程在重建好pay表后整个应用就恢复正常了,而重命名表后重建表的时间是非常之短的,我测试的时间大概是在几分钟之内就可以做完了,新数据就可以插入表了,剩下的工作就是将旧的数据导入数据库,这个工作的时间要求上就没有那么高了,因为应用已经正常了,一般来说利用晚上业务不忙的时候都可以把一张表的数据导入完成的。
以上的六种清除行迁移的方法各有各自的优缺点,分别适用于不同的情况下使用,利用以上的几种清除行迁移的方法基本上就能完全清除掉系统中的存在的行迁移了,当然,具体的生产环境中还需要具体问题具体分析的,针对不同类型的系统,系统中不同特点的表采用不同的清除方法,尽量的减少停数据库的时间,以保证应用的不间断稳定运行。
图一:oracle block结构图
由上图我们可以看出,一个oracle block由三个部分组成,分别是数据块头、自由空间、实际数据三部份组成。
数据块头:主要包含有数据块地址的一些基本信息和段的类型,以及表和包含有数据的实际行的地址。
自由空间:是指可以为以后的更新和插入操作分配的空间,大小由pctfree和pctused两个参数影响。
实际数据:是指在行内存储的实际数据。
当创建或者更改任何表和索引的时候,oracle在空间控制方面使用两个存储参数:
pctfree:为将来更新已经存在的数据预留空间的百分比。
pctused:用于为插入一新行数据的最小空间的百分比。这个值决定了块的可用状态。可用的块时可以执行插入的块,不可用状态的块只能执行删除和修改,可用状态的块被放在freelist中。
当表中一行的数据不能在一个数据block中放入的时候,这个时候就会发生两种情况,一种是行链接,另外一种就是行迁移了。
行链接产生在第一次插入数据的时候如果一个block不能存放一行记录的情况下。这种情况下,oracle将使用链接一个或者多个在这个段中保留的block存储这一行记录,行链接比较容易发生在比较大的行上,例如行上有long、long raw、lob等数据类型的字段,这种时候行链接是不可避免的会产生的。
当一行记录初始插入的时候事可以存储在一个block中的,由于更新操作导致行长增加了,而block的自由空间已经完全满了,这个时候就产生了行迁移。在这种情况下,oracle将会迁移整行数据到一个新的block中(假设一个block中可以存储下整行数据),oracle会保留被迁移行的原始指针指向新的存放行数据的block,这就意味着被迁移行的row id是不会改变的。
当发生了行迁移或者行链接,对这行数据操作的性能就会降低,因为oracle必须要扫描更多的block来获得这行的信息。
下面举例来具体说明行迁移/行链接的产生过程。
先创建一个pctfree为20和pctused为50的测试表:
create table test(
col1 char(20),
col2 number)
storage (
pctfree 20
pctused 50);
当插入一条记录的时候,oracle会在free list中先去寻找一个自由的块,并且将数据插入到这个自由块中。而在free list中存在的自由的块是由pctfree值决定的。初始的空块都是在free list中的,直到块中的自由空间达到pctfree的值,此块就会从free list中移走,而当此块中的使用空间低于pctused的时候,此块又被重新放到free list中。
oracle使用free list机制可以大大的提高性能,对于每次的插入操作,oracle只需要查找free list就可以了,而不是去查找所有的block来寻找自由空间。
假设第一次插入数据使用的一个空的block,如下图所示:
图二:oracle空的block结构图
假设插入第一条记录的时候占用一个block的10%的空间(除去block头占去的大小),剩余的自由空间90%大于pctfree20%,因此这个block还将继续为下次的插入操作提供空间。
图三:插入10%后的oracle block结构图
再连续插入七条记录,使block的剩余自由空间剩下20%,此时,这个block将要从free list中移走,如果再插入记录,oracle将再free list中寻找下一个空余的block去存放后来插入的数据。
图四:插入80%后的oracle block结构图
此时如果去更新第一条插入的记录,使其行长增加15%,oracle将会使用这个block中剩余的20%的自由空间来存放此行数据,如果再更新第二条记录,同样的使其行长增加15%,而此block中只剩下5%的自由空间,不够存放更新的第二条记录,于是oracle会在free list中寻找一个有自由空间(10%+15%)的block来存放这行记录的block去存储,在原来的block中保存了指向新的block的指针,原来这行记录的row id保持不变,这个时候就产生了行迁移。
而当我们插入一条新纪录的时候,如果一个blcok不足以存放下这条记录,oracle就会寻找一定数量的block一起来容纳这条新的记录,这个时候就产生了行链接,行链接主要产生在lob、clob、blob和大的va行链接har2数据类型上。
具体我们通过下面的一个试验来查看行链接和行迁移是如何产生并在数据文件中体现出来的。
先查看allan这个表空间的数据文件号,为了便于测试,我只建立了一个数据文件。
sql> select file_id from dba_data_files where tablespace_name=allan;
file_id
----------
23
创建一个测试表test:
sql> create table test ( x int primary key, a char(2000), b char(2000), c char(2000), d char(2000), e char(2000) ) tablespace allan;
table created.
因为我的数据库的db_block_size是8k,所以我创建的表有五个字段,每个占2000个字节,这样一行记录大约10k,就能超过一个block的大小了。
然后插入一行记录,只有一个字段的:
sql> insert into test(x) values (1);
1 row created.
sql> commit;
commit complete.
查找这行记录所在的block,并dump出来:
sql> select dbms_rowid.rowid_block_number(rowid) from test;
dbms_rowid.rowid_block_number(rowid)
------------------------------------
34
sql> alter system dump datafile 23 block 34;
system altered.
在udump目录下查看trace文件的内容如下:
start dump data blocks tsn: 34 file#: 23 minblk 34 maxblk 34
buffer tsn: 34 rdba: 0x05c00022 (23/34)
scn: 0x0000.013943f3 seq: 0x01 flg: 0x02 tail: 0x43f30601
frmt: 0x02 chkval: 0x0000 type: 0x06=trans data
block header dump: 0x05c00022
object id on block? y
seg/obj: 0x3ccd csc: 0x00.13943ef itc: 2 flg: o typ: 1 - data
fsl: 0 fnx: 0x0 ver: 0x01
itl xid uba flag lck scn/fsc
0x01 0x000a.02e.00000ad7 0x00800036.03de.18 --u- 1 fsc 0x0000.013943f3
0x02 0x0000.000.00000000 0x00000000.0000.00 ---- 0 fsc 0x0000.00000000
data_block_dump,data header at 0xadb505c
===============
tsiz: 0x1fa0
hsiz: 0x14
pbl: 0x0adb505c
bdba: 0x05c00022
76543210
flag=--------
ntab=1
nrow=1
frre=-1
fsbo=0x14
fseo=0x1f9a
avsp=0x1f83
tosp=0x1f83
0xe:pti[0] nrow=1 offs=0
0x12:pri[0] offs=0x1f9a
block_row_dump:
tab 0, row 0, @0x1f9a
tl: 6 fb: --h-fl-- lb: 0x1 cc: 1
col 0: [ 2] c1 02
end_of_block_dump
end dump data blocks tsn: 34 file#: 23 minblk 34 maxblk 34
对其中的一些信息做一些解释:
fb:h是指行记录的头,l是指行记录的最后一列,f是指行记录的第一列。
cc:列的数量
nrid:对于行链接或者行迁移来说的下一个row id的值
由上面的dump信息我们可以看出来当前表test是没有行链接或者行迁移的。
然后更新test表,并重新dump出来:
sql> update test set a=test,b=test,c=test,d=test,e=test where x=1;
1 row updated.
sql> commit;
commit complete.
此时应该有行迁移/行链接产生了。
sql> alter system dump datafile 23 block 34;
system altered.
在udump目录下查看trace文件的内容如下:
start dump data blocks tsn: 34 file#: 23 minblk 34 maxblk 34
buffer tsn: 34 rdba: 0x05c00022 (23/34)
scn: 0x0000.0139442b seq: 0x01 flg: 0x02 tail: 0x442b0601
frmt: 0x02 chkval: 0x0000 type: 0x06=trans data
block header dump: 0x05c00022
object id on block? y
seg/obj: 0x3ccd csc: 0x00.1394429 itc: 2 flg: - typ: 1 - data
fsl: 0 fnx: 0x0 ver: 0x01
itl xid uba flag lck scn/fsc
0x01 0x000a.02e.00000ad7 0x00800036.03de.18 c--- 0 scn 0x0000.013943f3
0x02 0x0004.002.00000ae0 0x0080003b.0441.11 --u- 1 fsc 0x0000.0139442b
data_block_dump,data header at 0xadb505c
===============
tsiz: 0x1fa0
hsiz: 0x14
pbl: 0x0adb505c
bdba: 0x05c00022
76543210
flag=--------
ntab=1
nrow=1
frre=-1
fsbo=0x14
fseo=0x178a
avsp=0x177c
tosp=0x177c
0xe:pti[0] nrow=1 offs=0
0x12:pri[0] offs=0x178a
block_row_dump:
tab 0, row 0, @0x178a
tl: 2064 fb: --h-f--n lb: 0x2 cc: 3
nrid: 0x05c00023.0
col 0: [ 2] c1 02
col 1: [2000]
74 65 73 74 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20
…………
col 2: [48]
74 65 73 74 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20
20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20 20
end_of_block_dump
end dump data blocks tsn: 34 file#: 23 minblk 34 maxblk 34
我们不难看出,nrid出现了值,指向了下一个row id,证明刚刚的update操作使这行记录产生了行链接或者行迁移了。
二、行迁移/行链接的检测
通过前面的介绍我们知道,行链接主要是由于数据库的db_block_size不够大,对于一些大的字段没法在一个block中存储下,从而产生了行链接。对于行链接我们除了增大db_block_size之外没有别的任何办法去避免,但是因为数据库建立后db_block_size是不可改变的(在9i之前),对于oracle9i的数据库我们可以对不同的表空间指定不同的db_block_size,因此行链接的产生几乎是不可避免的,也没有太多可以调整的地方。行迁移则主要是由于更新表的时候,由于表的pctfree参数设置太小,导致block中没有足够的空间去容纳更新后的记录,从而产生了行迁移。对于行迁移来说就非常有调整的必要了,因为这个是可以调整和控制清除的。
如何检测数据库中存在有了行迁移和行链接呢?我们可以利用oracle数据库自身提供的脚本utlchain.sql(在$oracle_home/rdbms/admin目录下)生成chained_rows表,然后利用analyze table table_name list chained rows into chained_rows命令逐个分析表,将分析的结果存入chained_rows表中。从utlchain.sql脚本中我们看到chained_rows的建表脚本,对于分区表,cluster表都是适用的。然后可以使用拼凑语句的办法生成分析所需要的表的脚本,并执行脚本将具体的分析数据放入chained_rows表中,例如下面是分析一个用户下所有表的脚本:
spool list_migation_rows.sql
set echo off
set heading off
select analyze table || table_name || list chained rows into chained_rows; from user_tables;
spool off
然后查询chained_rows表,可以具体查看某张表上有多少的行链接和行迁移。
select table_name, count(*) from chained_rows group by table_name;
当然,也可以查询v$sysstat视图中的’table fetch continued row’列得到当前的行链接和行迁移数量。
select name, value from v$sysstat where name = table fetch continued row;
可以使用如下的脚本来直接查找存在有行链接和行迁移的表,自动完成所有的分析和统计。
accept owner prompt " enter the schema name to check for row chaining (return for all): "
prompt
prompt
accept table prompt " enter the table name to check (return for all tables owned by &owner): "
prompt
prompt
set head off serverout on term on feed off veri off echo off
!clear
prompt
declare
v_owner varchar2(30);
v_table varchar2(30);
v_chains number;
v_rows number;
v_count number := 0;
sql_stmt varchar2(100);
dynamiccursor integer;
dummy integer;
cursor chains is
select count(*) from chained_rows;
cursor analyze is
select owner, table_name
from sys.dba_tables
where owner like upper(%&owner%)
and table_name like upper(%&table%)
order by table_name;
begin
dbms_output.enable(64000);
open analyze;
fetch analyze into v_owner, v_table;
while analyze%found loop
dynamiccursor := dbms_sql.open_cursor;
sql_stmt := analyze table ||v_owner||.||v_table|| list chained rows into chained_rows;
dbms_sql.parse(dynamiccursor, sql_stmt, dbms_sql.native);
dummy := dbms_sql.execute(dynamiccursor);
dbms_sql.close_cursor(dynamiccursor);
open chains;
fetch chains into v_chains;
if (v_chains != 0) then
if (v_count = 0) then
dbms_output.put_line(chr(9)||chr(9)||chr(9)||<<<<< chained rows found >>>>>);
v_count := 1;
end if;
dynamiccursor := dbms_sql.open_cursor;
sql_stmt := select count(*) v_rows|| from ||v_owner||.||v_table;
dbms_sql.parse(dynamiccursor, sql_stmt, dbms_sql.native);
dbms_sql.define_column(dynamiccursor, 1, v_rows);
dummy := dbms_sql.execute(dynamiccursor);
dummy := dbms_sql.fetch_rows(dynamiccursor);
dbms_sql.column_value(dynamiccursor, 1, v_rows);
dbms_sql.close_cursor(dynamiccursor);
dbms_output.put_line(v_owner||.||v_table);
dbms_output.put_line(chr(9)||---> has ||v_chains|| chained rows and ||v_rows|| num_rows in it!);
dynamiccursor := dbms_sql.open_cursor;
sql_stmt := truncate table chained_rows;
dbms_sql.parse(dynamiccursor, sql_stmt, dbms_sql.native);
dummy := dbms_sql.execute(dynamiccursor);
dbms_sql.close_cursor(dynamiccursor);
v_chains := 0;
end if;
close chains;
fetch analyze into v_owner, v_table;
end loop;
if (v_count = 0) then
dbms_output.put_line(no chained rows found in the ||v_owner|| owned tables!);
end if;
close analyze;
end;
/
set feed on head on
prompt
三、行迁移和行链接的清除
由于对于行链接来说只能增大db_block_size来清除,而db_block_size在创建了数据库后又是不能改变了的,所以这里对行链接的清除不做过多的叙述了,主要是针对行迁移来谈谈在实际的生产系统中如何去清除。
对于行迁移的清除,一般来说分为两个步骤:第一步,控制住行迁移的增长,使其不在增多;第二步,清除掉以前存在的行迁移。
众所周知,行迁移产生的主要原因是因为表上的pctfree参数设置过小导致的,而要实现第一步控制住行迁移的增长,就必须设置好一个正确合适的pctfree参数,否则即使清除了当前的行迁移后马上又会产生很多新的行迁移。当然,这个参数也不是越大越好的,如果pctfree设置的过大,会导致数据块的利用率低,造成空间的大量浪费,因此必须设置一个合理的pctfree参数。如何去确定一个表上合理的pctfree参数呢,一般来说有两种方法。
第一种是定量的的设定方法,就是利用公式来设定pctfree的大小。先使用analyze table table_name estimate statistics命令来分析要修改pctfree的表,然后查看user_tables中的avg_row_len列值,得到一个平均行长avg_row_len1,然后大量的对表操作之后,再次使用上述命令分析表,得到第二个平均行长avg_row_len2,然后运用公式100 * (avg_row_len2-avg_row_len1)/(avg_row_len2-avg_row_len1 + 原始的avg_row_len)得出的结果就是定量计算出来的一个合适的pctfree的值。这种方法因为是定量计算出来的,可能不一定会很准确,而且因为要分析表,所以对于使用rbo执行计划的系统不是很适用。例如:avg_row_len_1 = 60,avg_row_len_2 = 70,则平均修改量为 10,pctfree 应调整为 100 * 10 /(10 + 60)= 16.7% 。
第二种是差分微调的方法,先查询到当前表的pctfree的值,然后监控和调整pctfree参数,每次增加一点pctfree的大小,每次增加的比例不要超过5个百分点,然后使用analyze table table_name list chained rows into chained_rows命令分析每次所有的行迁移和行链接的增长情况,对于不同的表采取不同的增长比例,对于行迁移增长的比较快的表pctfree值就增加的多点,对于增长慢的表就增加的少点,直到表的行迁移基本保持不增长了为止。但是注意不要把pctfree调的过大,一般在40%以下就可以了,否则会造成空间的很大浪费和增加数据库访问的io。
使用上述的方法控制住了当前表的行迁移的增长之后,就可以开始清除之前表上存在的行迁移了。是否清除掉行迁移,关系到系统的性能是否能够有很大的提高。因此,对于以前存在的行迁移是一定而且必须要清除掉的。清除掉已经存在的行迁移有很多方法,但是并不是所有的方法都能适用所有的情况,例如表中的记录数多少,表上的关联多少、表上行迁移的数量多少等等这些因素都会是成为制约你使用什么方法清除的条件,因此,根据表的特点和具体情况的不同我们应该采用不同的方法去清除行迁移。下面我将逐一介绍各种清除行迁移的方法以及它们各自适用的不同情况。
方法一:传统的清除行迁移的方法
具体步骤如下:
1. 执行$oracle_home/rdbms/admin目录下的utlchain.sql脚本创建chained_rows表。
@$oracle_home/rdbms/admin/utlchain.sql
2. 将存在有行迁移的表(用table_name代替)中的产生行迁移的行的rowid放入到chained_rows表中。
analyze table table_name list chained rows into chained_rows;
3. 将表中的行迁移的row id放入临时表中保存。
create table table_name_temp as
select * from table_name
where rowid in
(select head_rowid from chained_rows
where table_name = table_name);
4. 删除原来表中存在的行迁移的记录行。
delete table_name
where rowid in
(select head_rowid
from chained_rows
where table_name = table_name);
5. 从临时表中取出并重新插入那些被删除了的数据到原来的表中,并删除临时表。
insert into table_name select * from table_name_temp;
drop table table_name_temp;
对于这种传统的清除rm的方法,优点是执行起来过程比较简单,容易实现。但是这种算法的缺陷是没有考虑到表关联的情况,在大多数数据库中很多表都是和别的表之间有表关联的,有外键的限制,这样就造成在步骤3中根本无法delete掉存在有行迁移的记录行,所以这种方法能够适用的表的范围是有限的,只能适用于表上无任何外键关联的表。由于这种方法在插入和删除数据的时候都没有disable掉索引,这样导致主要消耗时间是在删除和插入时维持索引树的均衡上了,这个对于如果记录数不多的情况时间上还比较短,但是如果对于记录数很多的表这个所消耗的时间就不是能够接受的了。显然,这种方法在处理大数据量的表的时候显然是不可取的。
以下是一个具体在生产数据库上清除行迁移的例子,在这之前已经调整过表的pctfree参数至一个合适的值了:
sql>@$oracle_home/rdbms/admin/utlchain.sql
table created.
sql> analyze table customer list chained rows into chained_rows;
table analyzed.
sql>select count(*) from chained_rows;
table_name count(*)
------------------------------ ----------
customer 21306
1 rows selected.
查看在customer表上存在的限制:
sql>select constraint_name,constraint_type,table_name from user_constraints where table_name=customer;
constraint_name c table_name
------------------------------ - ------------------------------
pk_customer1 p customer
sql>select constraint_name,constraint_type,table_name from user_constraints where r_constraint_name=pk_customer1;
no rows selected
sql> create table customer_temp as
select * from customer where rowid in
(select head_rowid from chained_rows
where table_name = customer);
table created.
sql>select count(*) from customer;
count(*)
----------
338299
sql> delete customer where rowid in
(select head_rowid
from chained_rows
where table_name = customer);
21306 rows deleted.
sql> insert into customer select * from customer_temp;
21306 rows created.
sql> drop table customer_temp;
table dropped.
sql> commit;
commit complete.
sql> select count(*) from customer;
count(*)
----------
338299
sql> truncate table chained_rows;
table truncated.
sql> analyze table customer list chained rows into chained_rows;
table analyzed.
sql> select count(*) from chained_rows;
count(*)
----------
0
以上整个清除两万多行的行迁移过程在三分钟左右,而且全部都在联机的状态下完成,基本上不会对业务有什么影响,唯一就是在要清除行迁移的表上不能有对外键的限制,否则就不能采用这个方法去清除了。
方法二:改进了的传统清除行迁移的方法
1. 执行$oracle_home/rdbms/admin目录下的utlchain.sql脚本创建chained_rows表。
2. 禁用所有其它表上关联到此表上的所有限制。
3. 将表中的行迁移的row id放入临时表中保存。
4. 删除原来表中存在的行迁移的记录行。
5. 从临时表中取出并重新插入那些被删除了的数据到原来的表中,并删除临时表。
6. 启用所有其它表上关联到此表上的所有限制。
这种算法是对传统算法的一种改进,对于使用这种算法来清除行迁移,考虑到了表之间的关联,还可以灵活的利用的toad工具生成的表关联信息,是一种比较适合于清除行迁移的一种方法。但是因为使用这种方法后来需要重建索引,如果记录数很大,比如说上千万条以上的记录的表,就不是很合适了,因为这个重建索引的时间会很长,是线性时间复杂度的,而重建索引是会导致索引所在的表被锁定的,从而导致插入不了新的记录,重建索引的时间太长导致记录长时间插入不了是会严重影响应用的,甚至导致数据的丢失,因此这个是使用这个方法前必须要考虑到的一个重要因素;对于8i以上的版本可以使用online的方法来重建索引,这样不会导致锁表,但是会有额外更多的开销,时间会很长。再者,因为这种方法在插入记录和删除记录都是带着索引的,如果表上的行迁移比较多,这样耗时间会比较长,而且占用资源也会比较大,因此只适用于表上行迁移存在的比较少的表。总的来说,这种方法对于表记录太多或者是表上的行迁移太多的情况都不是很适用,比较适合表记录少和表上行迁移都不太多的情况。
以下是一个具体在生产数据库上清除行迁移的例子,在这之前已经调整过表的pctfree参数至一个合适的值了:
sql>select index_name,index_type,table_name from user_indexes where table_name=terminal;
index_name index_type table_name
-----------------------------------------------------------------
index_terminal_terminalcode normal terminal
i_terminal_id_type normal terminal
i_terminal_ot_oid normal terminal
pk_terminal_id normal terminal
ui_terminal_goodis_ssn normal terminal
sql>select constraint_name,constraint_type,table_name from user_constraints where r_constraint_name=pk_terminal_id;
constraint_name c table_name
------------------------------ - ------------------------------
sys_c003200 r conn
sql>alter table conn disable constraint sys_c003200;
table altered.
sql>create table terminal_temp as
select * from terminal
where rowid in
(select head_rowid from chained_rows
where table_name = terminal);
table created.
sql>select count(*) from terminal_temp;
count(*)
----------
8302
sql>delete terminal
where rowid in
(select head_rowid
from chained_rows
where table_name = terminal);
8302 rows deleted.
sql>insert into terminal select * from terminal_temp;
8302 rows created.
sql>alter table conn disable constraint sys_c003200;
table altered.
sql>select count(*) from terminal;
count(*)
----------
647799
sql>truncate table chained_rows;
table truncated.
sql>analyze table terminal list chained rows into chained_rows;
table analyzed.
sql>select count(*) from chained_rows;
count(*)
----------
0
从上面过程中可以看出,对terminal这张表的行迁移清除耗时总共不到五分钟的时间,总体来说还是比较快的。从我在生产数据库中清除行迁移的经验来说,这种方法基本适用于大部分存在有行迁移的表。
方法三:使用toad工具清除行迁移的方法
1. 备份要清除rm的表。
rename table_name to table_name_temp;
2. drop 所有其它表上关联到table_name的外键限制。
select constraint_name,constraint_type,table_name from user_constraints where r_constraint_name in (select constraint_name from user_constraints where table_name=table_name and constraint_type=’p’);
alter table table_name drop constraint xxxx;(xxxx为上述的查询结果)
3. 重建1中被rename的表。
create table table_name as select * from table_name_temp where 0 = 1;
4. 重建表中原来的数据。
insert /*+ append */ into table_name select * from table_name_temp;
5. 删除在table_name_temp上的索引和关联其他表的外键。
6. 在table_name上建立和原来一样的索引、主键和所有的外键限制。
7. 重新编译相关的存储过程、函数和包。
8. 删除表table_name_temp。
对于使用这种方法来清除行迁移,全部的代码都是可以由toad工具来生成的。由于此方法把表上的关联考虑进去了,也是一种比较的全面的考虑的一种清除方法,而且在清除过程中重建了表和索引,对于数据库的存储和性能上都有提高。因为这种方法一开始是rename表为临时表,然后重建一个新表出来的,因此需要两倍的表的空间,因此在操作之前一定要检查要清除的表所在的表空间的free空间是否足够;但是也有一定的缺陷,因为在新表中重新插入原来的数据后需要重建索引和限制,因此在时间和磁盘的空间上都有比较大的开销,而且对于前台的应用可能会有一段时间的中断,当然,这个中断时间就主要是消耗在重建索引和重建限制上了,而时间的长短跟需要重建索引和限制的多少以及表的记录多少等等因素都有关系。使用这种方法对于7*24小时要求的系统上清除行迁移不是很合适,因为使用这种方法会导致系统可能有一段时间的停机,如果系统的实时性比较高,这种方法就不是很适用了。
方法四:使用exp/imp工具清除行迁移的方法
1. 使用exp导出存在有行迁移的表。
2. 然后truncate原来的表。
3. imp开始导出的表。
4. 重建表上所有的索引。(可选)
使用这种方法可以不用重建索引,省去了这部分时间,但是完成之后索引的使用效率不会很高,最好是在以后逐步的在线重建索引,这样是可以不需要中断业务的。但是需要考虑的是imp的时候会比较慢,而且会占用比较大的io,应该选择在应用不是很繁忙的时候做这项工作,否则会对应用的正常运行产生较大的影响。对于这种方法还存在有一个比较大的弊端,就是在exp表的时候要保证该表是没有数据的更新或者是只读状态的,不能对表有插入或者更新操作,否则会导致数据的丢失。
sql> select count(*) from test;
count(*)
----------
169344
sql> truncate table chained_rows;
table truncated.
sql> analyze table test list chained rows into chained_rows;
table analyzed.
sql> select count(*) from chained_rows;
count(*)
----------
3294
$ exp allan/allan file=test.dmp tables=test
export: release 9.2.0.3.0 - production on sun jun 6 13:50:08 2004
copyright (c) 1982, 2002, oracle corporation. all rights reserved.
connected to: oracle9i enterprise edition release 9.2.0.3.0 - production
with the partitioning, olap and oracle data mining options
jserver release 9.2.0.3.0 - production
export done in zhs16gbk character set and al16utf16 nchar character set
about to export specified tables via conventional path ...
. . exporting table test 169344 rows exported
export terminated successfully without warnings.
$ sqlplus allan/allan
sql*plus: release 9.2.0.3.0 - production on sun jun 6 13:50:43 2004
copyright (c) 1982, 2002, oracle corporation. all rights reserved
connected to:
oracle9i enterprise edition release 9.2.0.3.0 - production
with the partitioning, olap and oracle data mining options
jserver release 9.2.0.3.0 - production
sql> truncate table test;
table truncated.
sql> exit
disconnected from oracle9i enterprise edition release 9.2.0.3.0 - production
with the partitioning, olap and oracle data mining options
jserver release 9.2.0.3.0 - production
$ imp allan/allan file=test.dmp full=y ignore=y buffer=5000000
import: release 9.2.0.3.0 - production on sun jun 6 13:51:24 2004
copyright (c) 1982, 2002, oracle corporation. all rights reserved.
connected to: oracle9i enterprise edition release 9.2.0.3.0 - production
with the partitioning, olap and oracle data mining options
jserver release 9.2.0.3.0 - production
export file created by export:v09.02.00 via conventional path
import done in zhs16gbk character set and al16utf16 nchar character set
. importing allans objects into allan
. . importing table "test" 169344 rows imported
import terminated successfully without warnings.
$ sqlplus allan/allan
sql*plus: release 9.2.0.3.0 - production on sun jun 6 13:52:53 2004
copyright (c) 1982, 2002, oracle corporation. all rights reserved.
connected to:
oracle9i enterprise edition release 9.2.0.3.0 - production
with the partitioning, olap and oracle data mining options
jserver release 9.2.0.3.0 - production
sql> select count(*) from test;
count(*)
----------
169344
sql> select index_name from user_indexes where table_name=test;
index_name
------------------------------
obj_index
sql> alter index obj_index rebuild online;
index altered.
sql> truncate table chained_rows;
table truncated.
sql> analyze table test list chained rows into chained_rows;
table analyzed.
sql> select count(*) from chained_rows;
count(*)
----------
0
方法五:使用move命令来清除行迁移的方法
1. 查看要清除行迁移的表所在的表空间。
select table_name,tablespace_name from user_tables where table_name=table_name’;
2. 查看要清除行迁移的表上的具体索引。
select index_name,table_name from user_indexes where table_name=‘table_name’;
3. move要清除rm的表到指定的表空间中去。
alter table table_name move tablespace tablespace_name;
4. 重建表上的所有索引。
alter index index_name rebuild;
这种方法适用于8i及其以上的数据库版本,主要是利用数据库的一个move命令来实现行迁移的清除的,move命令的实质其实就是insert … select的一个过程,在move表的过程中是需要两倍的原来的表大小的,因为中间过程是要保留原来的旧表的,新表创建完成后旧表就被删除并释放空间了。move的时候要注意后面一定要加上表空间参数,所以必须要先知道表所在的表空间;因为move表之后需要重建索引,所以之前要确定表上的所有的索引。
这种方法对于表记录数很大或者表上索引太多的情况不太适用,因为本身的move就会很慢, 而且move表的时候会要锁定表,时间长了会导致对表的其他操作出现问题,导致数据插入不了丢失数据;move表后还要重建索引,索引太多了的话重建的时间也会太长;再者,这个方法也比较消耗资源,因此强烈建议在业务不繁忙的时候再执行。
以下是一个具体在生产数据库上清除行迁移的例子,在这之前已经调整过表的pctfree参数至一个合适的值了:
sql>analyze table service list chained rows into chained_rows;
table analyzed.
sql>select count(*) from chained_rows;
count(*)
----------
9145
sql>select table_name,tablespace_name from user_tables where table_name=service;
table_name tablespace_name
------------------------------ ------------------------------
service data
sql>select index_name,table_name from user_indexes where table_name=service;
index_name table_name
------------------------------ ------------------------------
i_service_accountnum service
i_service_dateactivated service
i_service_sc_s service
i_service_servicecode service
pk_service_sid service
sql>select count(*) from service;
count(*)
----------
518718
sql>alter table service move tablespace data;
table altered.
sql>alter index i_service_accountnum rebuild;
index altered.
sql>alter index i_service_dateactivated rebuild;
index altered.
sql>alter index i_service_sc_s rebuild;
index altered.
sql>alter index i_service_servicecode rebuild;
index altered.
sql>alter index pk_service_sid rebuild;
index altered.
sql>truncate table chained_rows;
table truncated.
sql>analyze table service list chained rows into chained_rows;
table analyzed.
sql>select count(*) from chained_rows;
count(*)
----------
0
利用move命令来清除行迁移,执行的命令都相对比较的简单,上面的例子中清除表servcie中的行迁移的时间大概在五分钟左右,其中move命令执行的时间为不到两分钟,也就是锁表的时间大概是不到两分钟,对于大多数的应用来说一般问题都是不大的,放在系统闲的时候执行基本上不会对应用产生什么太多的影响。
方法六:对于一些行迁移数量巨大而且表记录数巨大的表的行迁移的清除方法
1. 使用toad工具或者别的方法获取存在有大量行迁移并且表记录很大的表的重建表的sql,然后保存为脚本。
2. 使用rename命令将原始表重命名为一个备份表,然后删除别的表对原始表上的限制、以及原始表上的外键和索引。
3. 利用1中生成的脚本重建原始表,以及表上的限制,外键,索引等对象。
4. 然后按表模式导出2中备份的表,然后导入到另外的一个临时中转的数据库库中,因为表的名字已经改变,所以导入后需要rename表为原来的名字,然后重新导出,最后再导入到原来的数据库中。
这种方法主要是用来针对一些数据量比较大,并且表上的行迁移也比较多的表的行迁移清除。对于这些大表的行迁移的清除,正常来说都需要停应用一段较长时间才能够清除掉,让人感觉比较的头疼,对于7*24小时的应用来说,down机的时间越长损失则越大,当然是要尽量的减短down机的时间。但是因为表本身比较大,不管怎样做什么操作都是会比较耗费时间和资源的,但是如果应用在某段时间内主要是以插入数据为主,更新数据和删除数据都很少的,因此可以考虑可以采用这么一种方法:先重命名表,然后重新建立一个和原来一样的表,用来保证之后的应用的数据是可以正常插入的,从而使应用不用停很久,因为重建一个没有任何数据的表结构的过程是很短暂的,大概需要几秒钟的时间,而重建好表了后就能保证应用能够正常的写入数据,从而使应用几乎不用停顿,然后把开始重命名的原始表按表模式导出,因为表的名字已经被改变,因此需要一个临时库来导入这些数据,然后重命名回原来的名字,然后按原来的表名导出后再重新导入原始数据库,这样操作起来虽然会比较麻烦,但是却是一种很有效很实际的方法,速度也很快,导出后导入,因为本身表结构已经建立好了,不需要其他任何的多的操作,而且最关键的是这种方法所需要的down机时间是最短的。
sql>alter table user.pay rename to pay_x ;
然后导出pay_x表;
$ exp user/user file=pay_x.dmp tables=pay_x
sql>alter table user.batchpaymentdetail drop constraint fk_batchpaymentdetail_opayid ;
sql>alter table user.depositclassify drop constraint fk_depositclassify2 ;
sql>alter table user.depositcreditlog drop constraint fk_depositcreditlog2 ;
sql>alter table user.deposit drop constraint sys_c003423 ;
sql>alter table user.pay_x drop constraint sys_c003549 ;
sql>drop index user.i_pay_staffid ;
sql>create table user.pay
(
payid number(9),
accountnum number(9),
total number(12,2),
prevpay number(12,2),
pay number(12,2),
staffid number(9),
processdate date,
payno char(12),
type char(2) default 0,
paymentmethod char(1) default 0,
paymentmethodid varchar2(20),
bankaccount varchar2(32),
paymentid number(9),
status char(1) default 0,
memo varchar2(255),
serviceid number(9),
currentdepositid number(9),
shouldprocessdate date default sysdate,
originalexpiredate date,
originalcanceldate date,
expiredate date,
canceldate date,
deposittype char(1)
)
tablespace user
pctused 95
pctfree 5
initrans 1
maxtrans 255
storage (
initial 7312k
next 80k
minextents 1
maxextents 2147483645
pctincrease 0
freelists 1
freelist groups 1
buffer_pool default
)
nologging
nocache
noparallel;
sql>create index user.i_pay_staffid on user.pay
(staffid)
nologging
tablespace user
pctfree 5
initrans 2
maxtrans 255
storage (
initial 1936k
next 80k
minextents 1
maxextents 2147483645
pctincrease 0
freelists 1
freelist groups 1
buffer_pool default
)
noparallel;
sql>create unique index user.pk_pay_id on user.pay
(payid)
nologging
tablespace user
pctfree 5
initrans 2
maxtrans 255
storage (
initial 1120k
next 80k
minextents 1
maxextents 2147483645
pctincrease 0
freelists 1
freelist groups 1
buffer_pool default
)
noparallel;
sql>alter table user.pay add (
foreign key (staffid)
references user.staff (staffid));
sql>alter table user.depositclassify add
constraint fk_depositclassify2
foreign key (payid)
references user.pay (payid) ;
sql>alter table user.depositcreditlog add
constraint fk_depositcreditlog2
foreign key (payid)
references user.pay (payid) ;
sql>alter function "user"."generatepayno" compile ;
sql>alter procedure "user"."engenderprvpay" compile ;
sql>alter procedure "user"."isap_engenderprvpay" compile ;
sql>alter procedure "user"."spaddcreditdeposit" compile ;
sql>alter procedure "user"."spadddepositwithoutcard" compile ;
sql>alter procedure "user"."spadjustlwdeposit" compile ;
……
然后将导出的表pay_x的dmp文件导入一个临时的数据库中,然后在临时数据库中将其表名重新命名为pay,再按表模式将其导出。
imp user/user file= pay_x.dmp tables=pay ignore=y
sql>rename pay_x to pay;
$ exp user/user file=pay.dmp tables=pay
最后将这个dmp文件导入正式的生产数据库中即可。
以上的过程在重建好pay表后整个应用就恢复正常了,而重命名表后重建表的时间是非常之短的,我测试的时间大概是在几分钟之内就可以做完了,新数据就可以插入表了,剩下的工作就是将旧的数据导入数据库,这个工作的时间要求上就没有那么高了,因为应用已经正常了,一般来说利用晚上业务不忙的时候都可以把一张表的数据导入完成的。
以上的六种清除行迁移的方法各有各自的优缺点,分别适用于不同的情况下使用,利用以上的几种清除行迁移的方法基本上就能完全清除掉系统中的存在的行迁移了,当然,具体的生产环境中还需要具体问题具体分析的,针对不同类型的系统,系统中不同特点的表采用不同的清除方法,尽量的减少停数据库的时间,以保证应用的不间断稳定运行。
行迁移/行链接 参考资料一
最新推荐文章于 2024-10-26 21:03:07 发布