(若执行addNode.sh失败,参考我整理的步骤)*************************************************************删除节点删除节点1实例在节点2以oracle运行dbca,根据向导删除相关信息instance management-> delete an instance->输入sysdba用户的账户和密码->选定删除的节点实例查看数据库状态,在节点2以grid用户执行srvctl status database -d nmgsaic(正常只显示nmgsdb002 nmgsdb003)备份OCR,以root用户在nmgsdb002执行/grid/11.2/grid/bin/ocrconfig -manualbackup更新oracle Inventory,以oracle用户在nmgsdb002执行$ORACLE_HOME/oui/bin/runInstaller -updatenodelist ORACLE_HOME=$ORACLE_HOME
"CLUSTER_NODES={nmgsdb002,nmgsdb003}"删除节点,以root用户在nmgsdb002执行/grid/11.2/grid/bin/crsctl delete node -n nmgsdb001查看节点状态,正常只显示nmgsdb002和nmgsdb003
/grid/11.2/grid/bin/olsnodes -s -t更新oracle Inventory,以grid用户在nmgsdb002执行./runInstaller -updateNodeList ORACLE_HOME=$ORACLE_HOME "CLUSTER_NODES={nmgsdb002,nmgsdb003}"
CRS=TRUE验证:/grid/11.2/grid/bin/cluvfy stage -post nodedel -n nmgsdb001 -verbose
/grid/11.2/grid/bin/crs_stat -t若节点1的vip仍存在,在节点2以root执行以下命令删除/grid/11.2/grid/bin/srvctl stop vip -i nmgsdb001_vip(以实际名字为准)/grid/11.2/grid/bin/srvctl remove vip -i nmgsdb001_vip
----------------------------添加节点操作前需要确保以下工作完成:1.网络配置2.操作系统补丁和patch
3.组和用户已经添加,并配置.profile
4.节点间互信关系配置完毕在节点2以grid用户执行,检查执行结果是否为pass,NTP问题可忽略$ORACLE_HOME/oui/bin/runcluvfy.sh stage -pre crsinst -n nmgsdb001 -verbose若任何一个条件不满足,执行addNode.sh都会失败,执行下面的脚本忽略报错直接安装grid下面这个命令太长,可以放在脚本里面执行$ORACLE_HOME/oui/bin/runInstaller -addNode -invPtrLoc
/grid/11.2/grid/oraInst.loc ORACLE_HOME=$ORACLE_HOME
CLUSTER_NEW_NODES={nmgsdb001} CLUSTER_NEW_VIRTUAL_HOSTNAMES={nmgsdb001-vip}
CLUSTER_NODES=nmgsdb001,nmgsdb002,nmgsdb003}确认上面脚本执行没问题,按说明以root用户执行脚本/grid/oraInventory/orainstRoot.sh.
/grid/11.2.0/grid/root.sh添加oracle数据库软件在节点2执行$ORACLE_HOME/oui/bin/addNode.sh -silent
"CLUSTER_NEW_NODES={nmgsdb001}"(若执行不成功,可以将节点2上的$ORACLE_HOME拷到节点2,然后执行$ORACLE_HOME/bin/relink)根据提示以root用户执行$ORACLE_HOME/root.sh用dbca添加实例(同上面删除类似)最后查看集群状态,以grid用户在任一节点执行,确认三个节点都有实例运行crsctl status res -t可以参考两篇文档: