方案背景
系统版本 | Aix5.3 |
Oracle版本 | 10.2.0.4 |
共享磁盘形式 | Hacmp并发vg |
迁移方式 | 构建单节点rac,然后加入剩余节点 |
网卡需求 | 一机至少2块网卡 |
Cluster包 | 10gr2_aix5l64_cluster.cpio.gz |
Db包 | 10gr2_aix5l64_database.cpio.gz |
10204包 | p6810189_10204_AIX5L.zip 该包包含cluster和db的补丁 |
Hacmp识别包 | p6718715_10203_AIX64-5L.zip |
步骤说明
阶段1 搭建单节点rac
工作类型 | 操作 | 说明 |
准备工作 | 配置hosts表 | 配置完整的hosts表,安装是只选1个节点 |
准备工作 | 配置路径 | 略 |
准备工作 | 配置用户密码 | 单节点依然要配置自己的互信 |
准备工作 | 配置依赖包 | 略 |
准备工作 | 准备磁盘 | Hacmp后台进程必须启动,跑root.sh前,要运行p6718715_10203_AIX64-5L.zip的root.sh,这步会将hagsuer组加入到oracle中 |
准备工作 | 准备网络 | 必须2块网卡,公网和私网各一块。且主机名必须在pub网卡上,否则需要处理root.sh脚本 |
安装 | 执行安装cluster | aix使用xbroswer直接输入ip登录图形化 |
安装 | 运行root.sh |
|
配置 | 配置vip | Vipca直接生成 |
安装 | 安装db | 略 |
升级 | 先升级crs | 两个为一个升级包,指定oui home即可 |
升级 | 后升级db |
阶段2 加入老节点
工作类型 | 操作 | 说明 |
准备工作 | 配置hosts表 | 略 |
准备工作 | 配置路径 | 略 |
准备工作 | 配置用户密码 | 配置完整互信 |
准备工作 | 配置依赖包 | 略 |
准备工作 | 准备磁盘 | Hacmp保证完整的磁盘,varyonvg -c vg命令以并发模式启动vg |
准备工作 | 准备网络 | 必须2块网卡 |
安装 | 执行安装cluster,单节点直接推数据包给新节点 | $CRS_HOME/oui/addNode.sh图形化安装 |
安装 | 运行root.sh | 与单节点安装rac遇到的错误类似 |
安装 | 执行安装db,单节点直接推数据包给新节点 | $ORACLE_HOME/oui/addNode.sh图形化安装 |
配置 | 集群注册db | Srvctl add database -d db_name -o $ORACLE_HOME Srvctl add instance -d db_name -I instance_name1 Srvctl add instance -d db_name -I instance_name2 |
配置 | 配置rac所需redo | Alter database Add thread 2 group 6 (‘/path’) size 500m; Alter database enable thread 2; |
配置 | 配置rac所需undo | 略 |
配置 | 配置rac所需spfile参数 | *.Cluster_database=true inst1.thread=1 inst1.undo_tablespace='UNDOTBS1’ |
配置 | 配置并注册rac所需监听 | Netca图形化配置 |
疑难解决
1:、解压cpio
gunzip 10gr2_aix5l64_cluster.cpio.gz
这步会去掉gz
cpio -idmv < 10gr2_aix5l64_cluster.cpio
这步会解压到Disk1,这些大包默认都叫Disk1,注意改名
2、rac configuration file
要导入安装节点的信息,使用该文件,格式如下
mycrs
rac1 rac1-priv rac1-vip
rac2 rac2-priv rac2-vip
3、校验安装网络识别错误问题
这里也要校验互信问题,本机自己的互信也需要通过,注意防火墙或者ssh白名单设置
是因为只用了1块网卡,在访问priv ip时有改名,导致识别失败,需要2块网卡
- root.sh跑不成功
lsdb无法分配内存错误是p6718715_10203_AIX64没跑
clu命令输出很多类似于说明是因为root脚本错误,需要调试config脚本,下为脚本范例
$ cat /oracle/product/10.2.0/crs/install/rootconfig
#!/bin/sh
#
# rootconfig.sh for Oracle CRS homes
#
# This is run once per node during the Oracle CRS install.
# This script does the following:
# 1) Stop if any GSDs are running from 9.x oracle homes
# 2) Initialize new OCR device or upgrade the existing OCR device
# 3) Setup OCR for running CRS stack
# 4) Copy the CRS init script to init.d for init process to start
# 5) Start the CRS stack
# 6) Configure NodeApps if CRS is up and running on all nodes
#
# NOTE: Use sample paramfile in $ORA_CRS_HOME/srvm/admin/paramfile.sample for
# setting CRS parameters
# The following commands need to be run before Oracle Cluster Registry is
# populated.
# This is run during CRS installation and not during RAC
SILENT=false
ORA_CRS_HOME=/oracle/product/10.2.0/crs
CRS_ORACLE_OWNER=oracle
CRS_DBA_GROUP=dba
CRS_VNDR_CLUSTER=true
CRS_OCR_LOCATIONS=/dev/rora_ocr
CRS_CLUSTER_NAME=crs
CRS_HOST_NAME_LIST=bossrpt1,1
CRS_NODE_NAME_LIST=bossrpt1,1
CRS_PRIVATE_NAME_LIST=bossrpt1priv,1
CRS_LANGUAGE_ID='AMERICAN_AMERICA.WE8ISO8859P1'
CRS_VOTING_DISKS=/dev/rora_vote1,/dev/rora_vote2,/dev/rora_vote3
CRS_NODELIST=bossrpt1
CRS_NODEVIPS='bossrpt1/bossrpt1vip/255.255.255.192/en5'
……下略
格式化crs命令如下
/oracle/product/10.2.0/crs/install/rootdelete.sh
/oracle/product/10.2.0/crs/install/rootdeletenode.sh
--这个可以只可以在第一个节点时使用
dd if=/dev/zero of=/dev/rora_ocr bs=8192 count=2000
dd if=/dev/zero of=/dev/rora_vote1 bs=8192 count=2000
dd if=/dev/zero of=/dev/rora_vote2 bs=8192 count=2000
dd if=/dev/zero of=/dev/rora_vote3 bs=8192 count=2000
要活用sh -x命令调用css的脚本来确定问题
发现磁盘未启动,或者无法访问等,要varyonvg
- 并发vg相关
Varyonvg vgname打开vg
权限会在加了新节点后会被刷掉
单节点是重启默认是没启动的
没有-c打开时不是并发状态,无法访问,需要varyoff vgname,varyonvg -c vgname
- 有时候无法下一步,卡死
由于图形化显示问题,会弹出一个特别小的提示窗口需要确认。