Oracle游标(下)

4、当你添加了需要分析的日志文件后,我们就可以让LogMiner开始分析了:

SQL> exec dbms_logmnr.start_logmnr(dictfilename=>'/data6/cyx/logmnr/dic.ora');
PL/SQL procedure successfully completed.

 

如果你没有使用字典信息文件(此时我们只需要启动实例就可以了),那么就不需要跟dictfilename参数:

SQL> exec dbms_logmnr.start_logmnr();
PL/SQL procedure successfully completed.

 

当然dbms_logmnr.start_logmnr()过程还有其它几个用于定义分析日志时间/SCN窗口的参数,它们分别是:

STARTSCN / ENDSCN - 定义分析的起始/结束SCN号,

STARTTIME / ENDTIME - 定义分析的起始/结束时间。

例如下面的过程将只分析从 '2003-09-21 09:39:00'到'2003-09-21 09:45:00'这段时间的日志:

SQL> exec dbms_logmnr.start_logmnr(dictfilename=>'/data6/cyx/logmnr/dic.ora' , -
starttime => '2003-09-21 09:39:00',endtime => '2003-09-21 09:45:00');
PL/SQL procedure successfully completed.

 

上面过程第一行结尾的“-”表示转行,如果你在同一行,则不需要。我们可以看到有效日志的时间戳:

SQL> select distinct timestamp from v$logmnr_contents;
TIMESTAMP
-------------------
2003-09-21 09:40:02
2003-09-21 09:42:39

 

这里需要注意的是,因为我之前已经设置NLS_DATE_FORMAT环境变量,所以上面的日期可以直接按这个格式写就行了,如果你没有设,则需要使用to_date函数来转换一下。

SQL> !env|grep NLS
NLS_LANG=american_america.zhs16cgb231280
NLS_DATE_FORMAT=YYYY-MM-DD HH24:MI:SS
ORA_NLS33=/oracle/oracle9/app/oracle/product/9.2.0/ocommon/nls/admin/data
使用to_date的格式如下:
exec dbms_logmnr.start_logmnr(dictfilename=>'/data6/cyx/logmnr/dic.ora',-
starttime => to_date('2003-09-21 09:39:00','YYYY-MM-DD HH24:MI:SS'),-
endtime => to_date('2003-09-21 09:45:00','YYYY-MM-DD HH24:MI:SS'));

 

STARTSCN 和ENDSCN参数使用方法类似。

5、好了,在上面的过程执行结束之后,我们就可以通过访问与LogMiner相关的几个视图来提取我们需要的信息了。其中在v$logmnr_logs中可以看到我们当前分析的日志列表,如果数据库有两个实例(即OPS/RAC),在v$logmnr_logs中会有两个不同的THREAD_ID。

而真正的分析结果是放在v$logmnr_contents中,这里面有很多信息,我们可以根据需要追踪我们感兴趣的信息。后面我将单独列出来讲常见的追踪情形。

6、全部结束之后,我们可以执行dbms_logmnr.end_logmnr过程退出LogMiner分析过程,你也可以直接退出SQL*PLUS,它会自动终止

四、如何利用LogMiner分析Oracle8的日志文件

虽然说LogMiner是Oracle8i才推出来,但我们同样可以用它来分析Oracle8的日志文件,只不过稍微麻烦了一点,并且有一定的限制,下面是具体做法:

我们首先复制Oracle8i的$ORACLE_HOME/rdbms/admin/dbmslmd.sql脚本到Oracle8数据库所在主机的同样目录;这个脚本用于创建dbms_logmnr_d包(注意,Oracle9i中还将创建dbms_logmnr包),如果是8.1.5脚本名字为dbmslogmnrd.sql。然后在Oracle8的数据库上运行这个脚本,之后使用dbms_logmnr_d.build过程创建字典信息文件。现在我们就可以把Oracle8的归档日志连同这个字典信息文件复制到Oracle8i数据库所在的主机上,之后在Oracle8i数据库中从上面分析过程的第三步开始分析Oracle8的日志,不过

dbms_logmnr.start_logmnr()中使用的是Oracle8的字典信息文件。

按照我前面所说的那样,如果不是字典文件,我们则可以直接将Oracle8的归档日志复制到Oracle8i数据库所在主机,然后对它进行分析。

其实这里涉及到了一个跨平台使用LogMiner的问题,笔者做过试验,也可以在Oracle9i中来分析Oracle8i的日志。但这些都是有所限制的,主要表现在:

1、LogMiner所使用的字典文件必须和所分析的日志文件是同一个数据库所产生的,并且该数据库的字符集应和执行LogMiner数据库的相同。这很好理解,如果不是同一个数据库所产生就不存在对应关系了。

2、生成日志的数据库硬件平台和执行LogMiner数据库的硬件平台要求一致,操作系统版本可以不一致。所用的两个数据库操作系统都是tru64/ UNIX,但一个是 V5.1A,另一个则是V4.0F。如果操作系统不一致则会出现下面的错误:

ORA-01284: file /data6/cyx/logmnr/arch_1_163570.arc cannot be opened
ORA-00308: cannot open archived log '/data6/cyx/logmnr/arch_1_163570.arc'
ORA-27048: skgfifi: file header information is invalid
ORA-06512: at "SYS.DBMS_LOGMNR", line 63
ORA-06512: at line 1

 

五、分析v$logmnr_contents

前面我们已经知道了LogMiner的分析结果是放在v$logmnr_contents中,这里面有很多信息,我们可以根据需要追踪我们感兴趣的信息。那么我们通常感兴趣的有哪些呢?

1、追踪数据库结构变化情况,即DDL操作,如前所述,这个只有Oracle9i才支持:

SQL> select timestamp,sql_redo from v$logmnr_contents2 
where upper(sql_redo) like '%CREATE%';
TIMESTAMP
-------------------
SQL_REDO
-------------------------
2003-09-21 10:01:55
create table t (c1 number);

 

2、追踪用户误操作或恶意操作:

例如我们现实中有这样需求,有一次我们发现一位员工通过程序修改了业务数据库信息,把部分电话的收费类型改成免费了,现在就要求我们从数据库中查出到底是谁干的这件事?怎么查?LogMiner提供了我们分析日志文件的手段,其中v$logmnr_contents的SESSION_INFO列包含了下面的信息:

login_username=NEW_97 
client_info= OS_username=oracle8 Machine_name=phoenix1
OS_terminal=ttyp3 OS_process_id=8004 OS_program name=sqlplus@phoenix1
(TNS V1-V3)

 

虽然其中信息已经很多了,但在我们的业务数据库中,程序是通过相同的login_username登录数据库的,这样单从上面的信息是很难判断的。

不过我们注意到,因为公司应用服务器不是每个人都有权限在上面写程序的,一般恶意程序都是直接通过他自己的PC连到数据库的,这就需要一个准确的定位。IP追踪是我们首先想到的,并且也满足我们的实际要求,因为公司内部IP地址分配是统一管理的,能追踪到IP地址我们就可以准确定位了。但从面的SESSION_INFO中我们并不能直接看到IP,不过我们还是有办法的,因为这个SESSION_INFO里面的内容其实是日志从V$SESSION视图里提取的,我们可以在生产数据库中创建一个追踪客户端IP地址的触发器:

create or replace trigger on_logon_trigger
after logon on database
begin
  dbms_application_info.set_client_info(sys_context('userenv', 'ip_address'));
end;
/

现在,我们就可以在V$SESSION视图的CLIENT_INFO列中看到新登录的客户端IP地址了。那么上面的提出的问题就可以迎刃而解了。假如被更新的表名为HMLX,我们就可以通过下面的SQL来找到所需信息:

SQL > select session_info ,sql_redo from v$logmnr_contents 
2 where upper(operation) = 'UPDATE'  and upper(sql_redo) like '%HMLX%'
3 /
SESSION_INFO
-----------------------------------------
SQL_REDO
-----------------------------------------
login_username=C client_info=10.16.98.26 OS_username=sz-xjs-chengyx Machine_name
=GDTEL/SZ-XJS-CHENGYX
update "C"."HMLX" set "NAME" = 'free' where "NAME" = 'ncn.cn' and ROWID = 'AAABhTAA
FAAABRaAAE';

3. 在ORACLE里用存储过程定期分割表 
Oracle数据库里存放着各种各样的数据,其中有一些数据表会随着时间的推移,越来越大。如交友聊天的日志、短信收发的日志、生产系统的日志、动态网站发布系统的日志等等。这样的信息又和时间紧密相关,有没有办法让这些日志表能按时间自动分割成历史年月(如log200308,log200309)的表呢? 请看看我用存储过程定期分割表的方法吧。

一、问题的引出

  1.初学数据库时只知道用delete来删除表里的数据。但在Oracle数据库里,大量delete记录后,并不能释放表所占用的物理空间,这里面有一个高水位的概念,所以我们不能用delete来分割表。

  2.用重命名(rename)表的方法

   (1) 先建一个和原来日志表(假如是log)数据结构一模一样的新表(如log_new),建约束、索引及指定字段的默认值;

   (2) 重命名表log到log_YYYYMM;

要注意的问题是OLTP系统可能会因为DML操作阻碍重命名执行成功,出现ORA-00054资源正忙的错误提示,需要试多次才能成功。

   (3) 重命名表log_new到log。

  这样应用程序不用修改(受影响的时间仅几秒钟),日志表就被截断分割了。

  上述步骤可以在Oracle里用存储过程来实现。

二、用存储过程来分割表

  可以看到在重命名表的方法中,步骤(2)是个关键。下面这个rename_table过程会在有锁阻碍的情况下用递归的方式重试100次。

重命名原始表到目标表的存储过程rename_table:

create or replace procedure rename_table
(source_name    in    varchar2,
target_name    in     varchar2,
times        in out    number)
  is
query_str  varchar2(4000);
source_name1  varchar2(64);
target_name1  varchar2(64);
cursor c1 is select segment_name from user_segments 
where segment_name=upper(source_name);
dummy c1%rowtype; 
cursor c2 is select segment_name from user_segments
where segment_name=upper(target_name);
dummy2 c2%rowtype; 
begin
source_name1:=source_name;
target_name1:=target_name;
open c1;
fetch  c1  into   dummy;
--   if c1%found then
--   dbms_output.put_line(source_name1||'exist!');
--   end if;
open c2;
fetch  c2  into   dummy2;
--   if c2%notfound then
--   dbms_output.put_line(target_name1||'not exist!');
--   end if;
if c2%notfound  and c1%found then
query_str :='alter table '||source_name1||' rename to '
||target_name1;
execute immediate query_str;
dbms_output.put_line('rename success!');
end if;
close c1;
close c2;
exception
WHEN OTHERS THEN  
times:=times+1;
if times<100 then
--  dbms_output.put_line('times:'||times);
rename_table(source_name1,target_name1,times);
else
dbms_output.put_line(SQLERRM);
dbms_output.put_line('error over 100 times,exit');
end if;
end;

/
截断分割log表的存储过程log_history:
create or replace procedure log_history
is
query_str varchar2(32767);
year_month     varchar2(8);
times    number;
begin
select to_char(sysdate-15,'YYYYMMDD') into year_month from dual;
times:=0;
query_str :='create table log_new pctfree 10 pctused 80
as select * from log where 1=2';
execute immediate query_str;
query_str :='alter table log_new add constraints log_'
||year_month||'_pk
primary key (id) tablespace indx nologging pctfree 10';
execute immediate query_str; 
query_str :='alter table log_his modify logtime default sysdate';
execute immediate query_str;  
query_str :='create index log_'||year_month||'_logtime on log(logtime)
tablespace indx nologging pctfree 10';
execute immediate query_str;  
rename_table('log','log'||year_month,times);
query_str :='alter table log_new rename to log';
execute immediate query_str;
end;
/

 

  当然您工作环境的日志表可能和我这个做例子的日志表结构上有所不同,约束条件、索引和默认值都不尽相同。只要稍加修改就可以了。

三、用户需要有create any table系统权限(不是角色里包含的权限)

  因为在执行存储过程时,由角色赋予的权限会失效, 所以执行log_history的用户一定要有DBA单独赋予的create any table系统权限。

  最后在OS里定时每月一号凌晨0:00分执行log_history,让存储过程定期分割表。

  如果要分割的日志表很多,模仿log_history可以写很多类似的存储过程来分割不同项目里的日志表。然后让OS按月,按周或者不定期的执行这些存储过程, 管理员只要查看日志就可以了。

四、其它注意事项

  如果应用程序有BUG,可能对在用原始日志表产生长期不能释放的锁,执行log_history重命名会不成功。

  这时DBA可以查看数据字典:

select object_id,session_id,locked_mode from v$locked_object;
select t2.username,t2.sid,t2.serial#,t2.logon_time 
from v$locked_object t1,v$session t2 
where t1.session_id=t2.sid order by t2.logon_time;

 

  如果有长期出现的一模一样的列(包括登录时间),可能是没有释放的锁。

  我们要在执行分割日志表的存储过程前,用下面SQL语句杀掉长期没有释放非正常的锁:

alter system kill session 'sid,serial#';

 

五、结束语

  用上面介绍的存储过程定期分割日志表有很大的灵活性。历史数据不仅查询方便,转移和备份起来也都很容易。Unix和Windows平台的都可以使用。对服务器硬盘空间较小的中小型公司意义尤其明显。
 
4. 在Oracle中实现数据库的复制
在Internet上运作数据库经常会有这样的需求:把遍布全国各城市相似的数据库应用统一起来,一个节点的数据改变不仅体现在本地,还反映到远端。复制技术给用户提供了一种快速访问共享数据的办法。 
一、实现数据库复制的前提条件 
1、数据库支持高级复制功能 
您可以用system身份登录数据库,查看v$option视图,如果其中Advanced replication为TRUE,则支持高级复制功能;否则不支持。 
2、数据库初始化参数要求 
①、db_domain = test.com.cn 
指明数据库的域名(默认的是WORLD),这里可以用您公司的域名。 
②、global_names = true 
它要求数据库链接(database link)和被连接的数据库名称一致。 
现在全局数据库名:db_name+”.”+db_domain 
③、有跟数据库job执行有关的参数 
job_queue_processes = 1 
job_queue_interval = 60 
distributed_transactions = 10 
open_links = 4  
第一行定义SNP进程的启动个数为n。系统缺省值为0,正常定义范围为0~36,根据任务的多少,可以配置不同的数值。  
第二行定义系统每隔N秒唤醒该进程一次。系统缺省值为60秒,正常范围为1~3600秒。事实上,该进程执行完当前任务后,就进入睡眠状态,睡眠一段时间后,由系统的总控负责将其唤醒。  
如果修改了以上这几个参数,需要重新启动数据库以使参数生效。 
二、实现数据库同步复制的步骤 
假设在Internet上我们有两个数据库:一个叫深圳(shenzhen),一个叫北京(beijing)。 
具体配置见下表: 
数据库名 shenzhen beijing 
数据库域名 test.com.cn test.com.cn 
数据库sid号 shenzhen beijing 
Listener端口号 1521 1521 
服务器ip地址 10.1.1.100 10.1.1.200

1、确认两台数据库之间可以互相访问,在tnsnames.ora里设置数据库连接字符串。 
①、例如:深圳这边的数据库连接字符串是以下的格式 
beijing = 
(DESCRIPTION = 
(ADDRESS_LIST = 
(ADDRESS = (PROTOCOL = TCP)(HOST = 10.1.1.200)(PORT = 1521)) 

(CONNECT_DATA = 
(SERVICE_NAME = beijing) 

)  
运行$tnsping beijing  
出现以下提示符: 
Attempting to contact (ADDRESS=(PROTOCOL=TCP)(HOST=10.1.1.200)(PORT=1521)) 
OK(n毫秒)  
表明深圳数据库可以访问北京数据库。 
②、在北京那边也同样配置,确认$tnsping shenzhen 是通的。 
2、改数据库全局名称,建公共的数据库链接。 
①、用system身份登录shenzhen数据库 
SQL>alter database rename global_name to shenzhen.test.com.cn; 
用system身份登录beijing数据库: 
SQL>alter database rename global_name to beijing.test.com.cn; 
②、用system身份登录shenzhen数据库 
SQL>create public database link beijing.test.com.cn using 'beijing'; 
测试数据库全局名称和公共的数据库链接 
SQL>select * from global_name@beijing.test.com.cn
返回结果为beijing.test.com.cn就对了。 
用system身份登录beijing数据库: 
SQL>create public database link shenzhen.test.com.cn using 'shenzhen'; 
测试数据库全局名称和公共的数据库链接 
SQL>select * from global_name@shenzhen.test.com.cn
返回结果为shenzhen.test.com.cn就对了。 
3、建立管理数据库复制的用户repadmin,并赋权。 
①、用system身份登录shenzhen数据库 
SQL>create user repadmin identified by repadmin default tablespace users temporary tablespace temp; 
SQL>execute dbms_defer_sys.register_propagator('repadmin'); 
SQL>grant execute any procedure to repadmin; 
SQL>execute dbms_repcat_admin.grant_admin_any_repgroup('repadmin'); 
SQL>grant comment any table to repadmin; 
SQL>grant lock any table to repadmin; 
②、同样用system身份登录beijing数据库,运行以上的命令,管理数据库复制的用户repadmin,并赋权。 
说明:repadmin用户名和密码可以根据用户的需求自由命名。 
4、在数据库复制的用户repadmin下创建私有的数据库链接。 
①、用repadmin身份登录shenzhen数据库 
SQL>create database link beijing.test.com.cn connect to repadmin identified by repadmin; 
测试这个私有的数据库链接: 
SQL>select * from global_name@beijing.test.com.cn
返回结果为beijing.test.com.cn就对了。 
②、用repadmin身份登录beijing数据库 
SQL>create database link shenzhen.test.com.cn connect to repadmin identified by repadmin; 
测试这个私有的数据库链接 
SQL>select * from global_name@shenzhen.test.com.cn
返回结果为shenzhen.test.com.cn就对了。 
5、创建或选择实现数据库复制的用户和对象,给用户赋权,数据库对象必须有主关键字。 
假设我们用ORACLE里举例用的scott用户,dept表。 
①、用internal身份登录shenzhen数据库,创建scott用户并赋权 
SQL>create user scott identified by tiger default tablespace users temporary tablespace temp; 
SQL>grant connect, resource to scott; 
SQL>grant execute on sys.dbms_defer to scott; 
②、用scott身份登录shenzhen数据库,创建表dept 
SQL>create table dept 
(deptno number(2) primary key, 
dname varchar2(14), 
loc varchar2(13) ); 
③、如果数据库对象没有主关键字,可以运行以下SQL命令添加: 
SQL>alter table dept add (constraint dept_deptno_pk primary key (deptno)); 
④、在shenzhen数据库scott用户下创建主关键字的序列号,范围避免和beijing的冲突。 
SQL> create sequence dept_no increment by 1 start with 1 maxvalue 44 cycle nocache; 
(说明:maxvalue 44可以根据应用程序及表结构主关键字定义的位数需要而定) 
⑤、在shenzhen数据库scott用户下插入初始化数据 
SQL>insert into dept values (dept_no.nextval,'accounting','new york'); 
SQL>insert into dept values (dept_no.nextval,'research','dallas'); 
SQL>commit; 
⑥、在beijing数据库那边同样运行以上①,②,③ 
⑦、在beijing数据库scott用户下创建主关键字的序列号,范围避免和shenzhen的冲突。 
SQL> create sequence dept_no increment by 1 start with 45 maxvalue 99 cycle nocache; 
⑧、在beijing数据库scott用户下插入初始化数据 
SQL>insert into dept values (dept_no.nextval,'sales','chicago'); 
SQL>insert into dept values (dept_no.nextval,'operations','boston'); 
SQL>commit; 
6、创建要复制的组scott_mg,加入数据库对象,产生对象的复制支持 
①、用repadmin身份登录shenzhen数据库,创建主复制组scott_mg 
SQL> execute dbms_repcat.create_master_repgroup('scott_mg'); 
说明:scott_mg组名可以根据用户的需求自由命名。 
②、在复制组scott_mg里加入数据库对象 
SQL>execute dbms_repcat.create_master_repobject(sname=>'scott',oname=>'dept', type=>'table',use_existing_object=>true,gname=>'scott_mg'); 
参数说明: 
sname 实现数据库复制的用户名称 
oname 实现数据库复制的数据库对象名称 
(表名长度在27个字节内,程序包名长度在24个字节内) 
type 实现数据库复制的数据库对象类别 
(支持的类别:表,索引,同义词,触发器,视图,过程,函数,程序包,程序包体) 
use_existing_object true表示用主复制节点已经存在的数据库对象 
gname 主复制组名 
③、对数据库对象产生复制支持 
SQL>execute dbms_repcat.generate_replication_support('scott','dept','table'); 
(说明:产生支持scott用户下dept表复制的数据库触发器和程序包) 
④、确认复制的组和对象已经加入数据库的数据字典 
SQL>select gname, master, status from dba_repgroup;  
SQL>select * from dba_repobject; 
7、创建主复制节点 
①、用repadmin身份登录shenzhen数据库,创建主复制节点 
SQL>execute dbms_repcat.add_master_database  
(gname=>'scott_mg',master=>'beijing.test.com.cn',use_existing_objects=>true, copy_rows=>false, propagation_mode => 'asynchronous'); 
参数说明: 
gname 主复制组名 
master 加入主复制节点的另一个数据库 
use_existing_object true表示用主复制节点已经存在的数据库对象 
copy_rows false表示第一次开始复制时不用和主复制节点保持一致 
propagation_mode 异步地执行 
②、确认复制的任务队列已经加入数据库的数据字典 
SQL>select * from user_jobs; 
8、使同步组的状态由停顿(quiesced )改为正常(normal) 
①、用repadmin身份登录shenzhen数据库,运行以下命令 
SQL> execute dbms_repcat.resume_master_activity('scott_mg',false); 
②、确认同步组的状态为正常(normal) 
SQL> select gname, master, status from dba_repgroup; 
③、如果这个①命令不能使同步组的状态为正常(normal),可能有一些停顿的复制,运行以下命令再试试(建议在紧急的时候才用): 
SQL> execute dbms_repcat.resume_master_activity('scott_mg',true); 
9、创建复制数据库的时间表,我们假设用固定的时间表:10分钟复制一次。 
①、用repadmin身份登录shenzhen数据库,运行以下命令 
SQL>begin 
dbms_defer_sys.schedule_push ( 
destination => 'beijing.test.com.cn', 
interval => 'sysdate + 10/1440', 
next_date => sysdate); 
end; 

  
SQL>begin 
dbms_defer_sys.schedule_purge ( 
next_date => sysdate, 
interval => 'sysdate + 10/1440', 
delay_seconds => 0, 
rollback_segment => ''); 
end; 

  
②、用repadmin身份登录beijing数据库,运行以下命令 
SQL>begin 
dbms_defer_sys.schedule_push ( 
destination => ' shenzhen.test.com.cn ', 
interval => 'sysdate + 10 / 1440', 
next_date => sysdate); 
end; 

  
SQL>begin 
dbms_defer_sys.schedule_purge ( 
next_date => sysdate, 
interval => 'sysdate + 10/1440', 
delay_seconds => 0, 
rollback_segment => ''); 
end; 

10、添加或修改两边数据库的记录,跟踪复制过程 
如果你想立刻看到添加或修改后数据库的记录的变化,可以在两边repadmin用户下找到push的job_number,然后运行: 
SQL>exec dbms_job.run(job_number); 
三、异常情况的处理 
1、检查复制工作正常否,可以在repadmin 用户下查询user_jobs 
SQL>select job,this_date,next_date,what, broken from user_jobs; 
正常的状态有两种: 
任务闲——this_date为空,next_date为当前时间后的一个时间值 
任务忙——this_date不为空,next_date为当前时间后的一个时间值 
异常状态也有两种: 
任务死锁——next_date为当前时间前的一个时间值 
任务死锁——next_date为非常大的一个时间值,例如:4001-01-01 
这可能因为网络中断照成的死锁 
解除死锁的办法: 
$ps –ef|grep orale 
找到死锁的刷新快照的进程号ora_snp*,用kill –9 命令删除此进程 
然后进入repadmin 用户SQL>操作符下,运行命令: 
SQL>exec dbms_job.run(job_number); 
说明:job_number 为用select job,this_date,next_date,what from user_jobs;命令查出的job编号。 
2、增加或减少复制组的复制对象 
①、停止主数据库节点的复制动作,使同步组的状态由正常(normal)改为停顿(quiesced ) 
用repadmin身份登录shenzhen数据库,运行以下命令 
SQL>execute dbms_repcat.suspend_master_activity (gname => 'scott_mg'); 
②、在复制组scott_mg里加入数据库对象,保证数据库对象必须有主关键字。 
SQL>execute dbms_repcat.create_master_repobject(sname=>'scott',oname=>'emp', type=>'table',use_existing_object=>true,gname=>'scott_mg'); 
对加入的数据库对象产生复制支持 
SQL>execute dbms_repcat.generate_replication_support('scott','emp','table'); 
③、在复制组scott_mg里删除数据库对象。 
SQL>execute dbms_repcat.drop_master_repobject ('scott','dept','table'); 
④、重新使同步组的状态由停顿(quiesced )改为正常(normal)。 
SQL> execute dbms_repcat.resume_master_activity('scott_mg',false);

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值