这篇文章说明了在不需要shutdown资料库及重新启动已经在运行的服务的情况下动态加入一个新的9i RAC节点的大致步骤 (其中RAC硬件的配置修改, HBA卡及驱动安装,OCFS软件的安装,挂载点创建,共享磁盘的挂载 ,Linux参数修改, hosts修改等和RAC安装配置时候差不多,没有写出来 ) 。
配置:
这篇文章基于下面的RAC配置,但是可以应用于在Linux下的Oracle9i (9.2.0) RAC :
Red Hat Linux Advanced Server 2.1 with Errata 25 (2.4.9-e.40)
Oracle Cluster Manager 9.2.0.4.0
Oracle9i Real Application Cluster version 9.2.0.4.0
Oracle Server Enterprise Edition 9.2.0.4.0 for Linux
Two nodes, existing RAC cluster
One node , standalone RAC server
这个过程在Red Hat Enterprise Linux 3 (ES) 下的Oracle9i RAC 9.2.0.5 上测试成功。
现有的双节点RAC配置 :
Hostname Interface IP Address
existingnodes dell-node1 external 192.168.0.201
dell-pri1 internal 10.1.1.5
dell-node2 external 192.168.0.203
dell-pri2 internal 10.1.1.6
newnode dell-node3 external 192.168.0.205
dell-pri3 internal 10.1.1.7
已经存在的两个节点的Oracle Cluster Manager(ORACM) 配置文件
$ORACLE_HOME/oracm/admin/cmcfg.ora
两个已经存在的节点的Cluster Manager 的配置如下:
节点1 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2
PublicNodeNames=dell-node1 dell-node2
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri1
KernelModuleName=hangcheck-timer
节点2 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2
PublicNodeNames=dell-node1 dell-node2
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri2
KernelModuleName=hangcheck-timer
修改存在的两个节点的Oracle Cluster Manager(ORACM) 配置文件
$ORACLE_HOME/oracm/admin/cmcfg.ora
在所有存在的节点(这里是2个节点)上修改OCM配置文件,加入新的节点的Hostname 详细信息 。这个动作必须在新的节点上配置或开启Cluster Manager 之前完成 。 不这样做可能导致在新的节点或旧的节点上Cluster Manager 的失败 。
注意: 编辑而不是拷贝原始的 cmcfg.ora 文件(用于开启CM Service), 拷贝正在被使用的配置文件可能导致已经存在的节点上OCM运行的失败 。
节点1 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri1
KernelModuleName=hangcheck-timer
节点2 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri2
KernelModuleName=hangcheck-timer
在新的节点上配置Oracle Cluster Manager(ORACM) 配置文件
这一步假设Oracle Cluster Manager 软件已经正确的被安装到新的节点上(在新的节点上安装OCM比较容易),使它能够加入到已经存在的RAC节点上 。 在RAC的所有节点上的Cluster Manager 版本必须一样 。
如何检查已经存在OCM的版本: 打开CM的log文件, 可以查看到OCM的版本 。
dell-node2# grep –i version cm.log | more
在存在的两个节点上修改OCM配置文件完成后,就可以在安装了Oracle Cluster Manager 的新的节点上修改cmcfg.ora 配置文件了, 在新节点的配置文件中加入新节点的Hostname 等信息 。新节点上的cmcfg.ora 配置文件如下 :
节点3 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri3
KernelModuleName=hangcheck-timer
在新的节点上开起OCM Service .
一旦新节点上的CM配置完成, 我们可以以root 身份开启Oracle Cluster Manager .
dell-node2$su root
Password:
dell-node2$id
uid=0(root)gid=0(root)groups=0(root),1(bin),2(daemon),3(sys),4(adm),6(disk),10(wheel)
dell-node2$
dell-node2$./ocmstart.sh
开启后退出root 权限 :
dell-node2$ exit
dell-node2$ id
uid=500(oracle) gid=500(dba) groups=500(dba),501(oper)
dell-node2$ps -ef | grep oracm
root 2209 1 0 May02 ? 00:00:00 oracm
root 2211 2209 0 May02 ? 00:00:21 oracm
root 2212 2211 0 May02 ? 00:10:48 oracm
root 2213 2211 0 May02 ? 00:00:00 oracm
root 2214 2211 0 May02 ? 00:03:37 oracm
root 2215 2211 0 May02 ? 00:01:34 oracm
root 2216 2211 0 May02 ? 00:00:00 oracm
root 2217 2211 0 May02 ? 00:00:01 oracm
root 2218 2211 0 May02 ? 00:00:00 oracm
root 2221 2211 0 May02 ? 00:00:00 oracm
root 2437 2211 0 May02 ? 00:00:00 oracm
root 2479 2211 0 May02 ? 00:00:01 oracm
root 2645 2211 0 May02 ? 00:00:03 oracm
root 2675 2211 0 May02 ? 00:12:25 oracm
root 2683 2211 0 May02 ? 00:00:00 oracm
root 2684 2211 0 May02 ? 00:00:00 oracm
root 2685 2211 0 May02 ? 00:00:00 oracm
root 2686 2211 0 May02 ? 00:00:00 oracm
root 2687 2211 0 May02 ? 00:00:00 oracm
oracle 608 30648 0 10:14 pts/1 00:00:00 grep oracm
查看Cluster Manager Logs .
在新的节点上成功开启Oracle Cluster Manager 之后, 我们可以在新的节点上查看OCM log file : $ORACLE_HOME/oracm/log/cm.log . Cluster Manager 开启之后, 添加新的节点到已经存在的节点的cluster-wide 重新配置将会在OCM log中出现下面一些信息 。
同样的,我们在所有已经存在的节点上查看OCM log文件 。 应该可以看到 3 个节点信息 。
来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/35489/viewspace-84337/,如需转载,请注明出处,否则将追究法律责任。
转载于:http://blog.itpub.net/35489/viewspace-84337/