1、检查系统所需的软件包
rpm -qa | grep -E "binutils|compat-libstdc++|elfutils-libelf|gcc|glibc|libaio|libgcc|libstdc++|make|sysstat|unixODBC|pdksh"
[root@testdb01 /]# rpm -qa | grep -E "binutils|compat-libstdc++|elfutils-libelf|gcc|glibc|libaio|libgcc|libstdc++|make|sysstat|unixODBC|pdksh"
glibc-headers-2.12-1.107.el6.x86_64
compat-libstdc++-33-3.2.3-69.el6.x86_64
make-3.81-20.el6.x86_64
unixODBC-2.2.14-12.el6_3.x86_64
compat-glibc-headers-2.5-46.2.x86_64
glibc-utils-2.12-1.107.el6.x86_64
glibc-2.12-1.107.el6.x86_64
gcc-4.4.7-3.el6.x86_64
sysstat-9.0.4-20.el6.x86_64
compat-libstdc++-296-2.96-144.el6.i686
libaio-0.3.107-10.el6.x86_64
compat-glibc-2.5-46.2.x86_64
libgcc-4.4.7-3.el6.i686
glibc-common-2.12-1.107.el6.x86_64
libstdc++-4.4.7-3.el6.x86_64
elfutils-libelf-0.152-1.el6.x86_64
binutils-2.20.51.0.2-5.36.el6.x86_64
glibc-devel-2.12-1.107.el6.x86_64
makebootfat-1.4-10.el6.x86_64
libgcc-4.4.7-3.el6.x86_64
glibc-2.12-1.107.el6.i686
2、修改hosts文件
cat /etc/hosts
#Public IP address
135.149.32.4 datacheck01
135.149.32.5 datacheck02
#Virtual IP address
135.149.32.10 dtcheck01-vip
135.149.32.11 dtcheck02-vip
# Private IP address
192.168.1.101 dtcheck01-pri
192.168.1.102 dtcheck02-pri
#SCAN IP address
135.149.32.9 dtcheck-scan
3、修改内核参数
kernel.core_uses_pid = 1
fs.file-max=6815744
kernel.msgmni=2878
kernel.msgmax=8192
kernel.msgmnb=65536
kernel.sem=250 32000 100 142
kernel.shmmni=4096
kernel.shmall=3279547
kernel.sysrq=1
net.core.rmem_default=262144
net.core.rmem_max=4194304
net.core.wmem_default=262144
net.core.wmem_max=1048576
fs.aio-max-nr=3145728
net.ipv4.ip_local_port_range=9000 65500
kernel.shmmax=4294967295
4、创建组和用户
groupadd -g 502 oinstall
groupadd -g 503 dba
groupadd -g 504 oper
groupadd -g 505 asmadmin
groupadd -g 506 asmoper
groupadd -g 507 asmdba
useradd -g oinstall -G dba,asmdba,oper oracle
useradd -g oinstall -G asmadmin,asmdba,asmoper,oper,dba grid
5、修改限制文件
vi /etc/security/limits.conf
grid soft nproc 2047
grid hard nproc 16384
grid soft nofile 1024
grid hard nofile 65536
oracle soft nproc 2047
oracle hard nproc 16384
oracle soft nofile 1024
oracle hard nofile 65536
6、修改登陆session限制
vi /etc/pam.d/login
session required pam_limits.so
7、修改用户的限制
vi/etc/profile
if [ $USER = "oracle" ] || [ $USER = "grid" ]; then
if [ $SHELL = "/bin/ksh" ]; then
ulimit -p 16384
ulimit -n 65536
else ulimit -u 16384 -n 65536
fi
umask 022
fi
8、修改grid和oracle用户的环境变量
1节点grid
export ORACLE_BASE=/u01/app/oracle
export ORACLE_SID=+ASM1
umask 022
export ORACLE_HOME=/u01/app/grid/11.2.0
export LD_LIBRARY_PATH=:$ORACLE_HOME/lib:$ORACLE_HOME/lib32
export LIBPATH=$LD_LIBRARY_PATH
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/OPatch:/usr/bin:/etc:/usr/sbin:/usr/ucb:/usr/java5/bin:$PATH
export PS1='$LOGNAME@'`hostname`:'$PWD''$ '
if [ -t 0 ]; then
stty intr ^C
fi
export PATH
2节点grid
export ORACLE_BASE=/u01/app/oracle
export ORACLE_SID=+ASM2
umask 022
export ORACLE_HOME=/u01/app/grid/11.2.0
export LD_LIBRARY_PATH=:$ORACLE_HOME/lib:$ORACLE_HOME/lib32
export LIBPATH=$LD_LIBRARY_PATH
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/OPatch:/usr/bin:/etc:/usr/sbin:/usr/ucb:/usr/java5/bin:$PATH
export PS1='$LOGNAME@'`hostname`:'$PWD''$ '
if [ -t 0 ]; then
stty intr ^C
fi
export PATH
节点1oracle
export ORACLE_BASE=/u01/app/oracle
export ORACLE_SID=oipdb1
umask 022
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0
export GRID_HOME=/u01/app/grid/11.2.0
export LD_LIBRARY_PATH=:$ORACLE_HOME/lib:$ORACLE_HOME/lib32
export LIBPATH=$LD_LIBRARY_PATH
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/OPatch:$GRID_HOME/bin:/usr/bin:/etc:/usr/sbin:/usr/ucb:/usr/java5/bin:$PATH
export PS1='$LOGNAME@'`hostname`:'$PWD''$ '
if [ -t 0 ]; then
stty intr ^C
fi
export PATH
节点2oracle
export ORACLE_BASE=/u01/app/oracle
export ORACLE_SID=oipdb2
umask 022
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0
export GRID_HOME=/u01/app/grid/11.2.0
export LD_LIBRARY_PATH=:$ORACLE_HOME/lib:$ORACLE_HOME/lib32
export LIBPATH=$LD_LIBRARY_PATH
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/OPatch:$GRID_HOME/bin:/usr/bin:/etc:/usr/sbin:/usr/ucb:/usr/java5/bin:$PATH
export PS1='$LOGNAME@'`hostname`:'$PWD''$ '
if [ -t 0 ]; then
stty intr ^C
fi
export PATH
9、分别用grid和oracle用户登陆按照提示配置秘钥授权访问
sshsetup/sshUserSetup.sh -user grid -hosts "datacheck01 datacheck02" -advanced -noPromptPassphrase
ssh datacheck01 date
ssh datacheck02 date
ssh dtcheck01-pri date
ssh dtcheck02-pri date
sshsetup/sshUserSetup.sh -user oracle -hosts "datacheck01 datacheck02" -advanced -noPromptPassphrase
oralce 、grid 口令: Ora11rac
10、安装前检查
./runcluvfy.sh stage -pre crsinst -n datacheck01,datacheck02 -fixup -verbose >racenvck20140314.log
sh /tmp/CVU_11.2.0.4.0_grid/runfixup.sh
grid@datacheck01:/soft/grid$ more racenvck20140312.log
执行 集群服务设置 的预检查
正在检查节点的可访问性...
检查: 节点 "datacheck01" 的节点可访问性
目标节点 是否可访问
------------------------------------ ------------------------
datacheck02 是
datacheck01 是
结果:节点 "datacheck01" 的节点可访问性检查已通过
正在检查等同用户...
检查: 用户 "grid" 的等同用户
节点名 状态
------------------------------------ ------------------------
datacheck02 通过
datacheck01 通过
结果:用户 "grid" 的等同用户检查已通过
正在检查节点连接性...
正在检查主机配置文件...
节点名 状态
------------------------------------ ------------------------
datacheck02 通过
datacheck01 通过
主机配置文件的验证成功
节点 "datacheck02" 的接口信息
名称 IP 地址 子网 网关 默认网关 HW 地址 MTU
------ --------------- --------------- --------------- --------------- ----------------- ------
eth0 135.149.32.5 135.149.32.0 0.0.0.0 135.149.32.254 00:50:56:BC:9F:F6 1500
eth1 192.168.1.102 192.168.1.0 0.0.0.0 135.149.32.254 00:50:56:BC:6B:6C 1500
节点 "datacheck01" 的接口信息
名称 IP 地址 子网 网关 默认网关 HW 地址 MTU
------ --------------- --------------- --------------- --------------- ----------------- ------
eth0 135.149.32.4 135.149.32.0 0.0.0.0 135.149.32.254 00:50:56:BC:B3:01 1500
eth1 192.168.1.101 192.168.1.0 0.0.0.0 135.149.32.254 00:50:56:BC:AE:6F 1500
检查: 子网 "135.149.32.0" 的节点连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck02[135.149.32.5] datacheck01[135.149.32.4] 是
结果:含有节点 datacheck02,datacheck01 的子网 "135.149.32.0" 的节点连接性检查已通过
检查: 子网 "135.149.32.0" 的 TCP 连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck01:135.149.32.4 datacheck02:135.149.32.5 通过
结果:子网 "135.149.32.0" 的 TCP 连接性检查通过
检查: 子网 "192.168.1.0" 的节点连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck02[192.168.1.102] datacheck01[192.168.1.101] 是
结果:含有节点 datacheck02,datacheck01 的子网 "192.168.1.0" 的节点连接性检查已通过
检查: 子网 "192.168.1.0" 的 TCP 连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck01:192.168.1.101 datacheck02:192.168.1.102 通过
结果:子网 "192.168.1.0" 的 TCP 连接性检查通过
在子网 "135.149.32.0" 上找到的很可能是用于 VIP 的候选接口的接口为:
datacheck02 eth0:135.149.32.5
datacheck01 eth0:135.149.32.4
在子网 "192.168.1.0" 上找到的很可能是用于专用互连的候选接口的接口为:
datacheck02 eth1:192.168.1.102
datacheck01 eth1:192.168.1.101
正在检查子网掩码一致性...
子网 "135.149.32.0" 的子网掩码一致性检查已通过。
子网 "192.168.1.0" 的子网掩码一致性检查已通过。
子网掩码一致性检查已通过。
结果:节点连接性检查已通过
正在检查多点传送通信...
正在检查子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。
正在检查子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。
多点传送通信检查已通过。
检查 ASMLib 配置。
节点名 状态
------------------------------------ ------------------------
datacheck01 通过
datacheck02 (失败) ASMLib 未安装。
结果:ASMLib 配置检查失败。
检查: 内存总量
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 62.923GB (6.5979592E7KB) 1.5GB (1572864.0KB) 通过
datacheck01 62.923GB (6.5979592E7KB) 1.5GB (1572864.0KB) 通过
结果:内存总量 检查已通过
检查: 可用内存
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 61.8921GB (6.4898524E7KB) 50MB (51200.0KB) 通过
datacheck01 61.4027GB (6.4385392E7KB) 50MB (51200.0KB) 通过
结果:可用内存 检查已通过
检查: 交换空间
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 31.5312GB (3.3062904E7KB) 16GB (1.6777216E7KB) 通过
datacheck01 31.5312GB (3.3062904E7KB) 16GB (1.6777216E7KB) 通过
结果:交换空间 检查已通过
检查: "datacheck02:/tmp" 的 空闲磁盘空间
路径 节点名 装载点 可用 必需 状态
---------------- ------------ ------------ ------------ ------------ ------------
/tmp datacheck02 /tmp 41.749GB 1GB 通过
结果:"datacheck02:/tmp" 的 空闲磁盘空间 检查已通过
检查: "datacheck01:/tmp" 的 空闲磁盘空间
路径 节点名 装载点 可用 必需 状态
---------------- ------------ ------------ ------------ ------------ ------------
/tmp datacheck01 /tmp 34.0361GB 1GB 通过
结果:"datacheck01:/tmp" 的 空闲磁盘空间 检查已通过
检查: "grid" 的 用户存在性
节点名 状态 注释
------------ ------------------------ ------------------------
datacheck02 通过 存在(503)
datacheck01 通过 存在(503)
检查 UID 值为 503 的多个用户
结果:对 UID 值为 503 的多个用户进行的检查已通过
结果:"grid" 的 用户存在性 检查已通过
检查: "oinstall" 的 组存在性
节点名 状态 注释
------------ ------------------------ ------------------------
datacheck02 通过 存在
datacheck01 通过 存在
结果:"oinstall" 的 组存在性 检查已通过
检查: "dba" 的 组存在性
节点名 状态 注释
------------ ------------------------ ------------------------
datacheck02 通过 存在
datacheck01 通过 存在
结果:"dba" 的 组存在性 检查已通过
检查: 组 "oinstall" 中用户 "grid" 的成员资格 [作为 主]
节点名 用户存在 组存在 组中的用户 主 状态
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 是 是 是 是 通过
datacheck01 是 是 是 是 通过
结果:组 "oinstall" 中用户 "grid" 的成员资格检查 [作为 主] 已通过
检查: 组 "dba" 中用户 "grid" 的成员资格
节点名 用户存在 组存在 组中的用户 状态
---------------- ------------ ------------ ------------ ----------------
datacheck02 是 是 是 通过
datacheck01 是 是 是 通过
结果:组 "dba" 中用户 "grid" 的成员资格检查已通过
检查: 运行级别
节点名 运行级别 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 5 3,5 通过
datacheck01 5 3,5 通过
结果:运行级别 检查已通过
检查: "打开的文件描述符的最大数" 的 硬性限制
节点名 类型 可用 必需 状态
---------------- ------------ ------------ ------------ ----------------
datacheck02 硬性 65536 65536 通过
datacheck01 硬性 65536 65536 通过
结果:"打开的文件描述符的最大数" 的 硬性限制 检查已通过
检查: "打开的文件描述符的最大数" 的 软性限制
节点名 类型 可用 必需 状态
---------------- ------------ ------------ ------------ ----------------
datacheck02 软性 1024 1024 通过
datacheck01 软性 1024 1024 通过
结果:"打开的文件描述符的最大数" 的 软性限制 检查已通过
检查: "最大用户进程数" 的 硬性限制
节点名 类型 可用 必需 状态
---------------- ------------ ------------ ------------ ----------------
datacheck02 硬性 16384 16384 通过
datacheck01 硬性 16384 16384 通过
结果:"最大用户进程数" 的 硬性限制 检查已通过
检查: "最大用户进程数" 的 软性限制
节点名 类型 可用 必需 状态
---------------- ------------ ------------ ------------ ----------------
datacheck02 软性 2047 2047 通过
datacheck01 软性 2047 2047 通过
结果:"最大用户进程数" 的 软性限制 检查已通过
检查: 系统体系结构
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 x86_64 x86_64 通过
datacheck01 x86_64 x86_64 通过
结果:系统体系结构 检查已通过
检查: 内核版本
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 2.6.32-358.el6.x86_64 2.6.9 通过
datacheck01 2.6.32-358.el6.x86_64 2.6.9 通过
结果:内核版本 检查已通过
检查: "semmsl" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 250 250 250 通过
datacheck01 250 250 250 通过
结果:"semmsl" 的 内核参数 检查已通过
检查: "semmns" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 32000 32000 32000 通过
datacheck01 32000 32000 32000 通过
结果:"semmns" 的 内核参数 检查已通过
检查: "semopm" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 100 100 100 通过
datacheck01 100 100 100 通过
结果:"semopm" 的 内核参数 检查已通过
检查: "semmni" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 128 128 128 通过
datacheck01 128 128 128 通过
结果:"semmni" 的 内核参数 检查已通过
检查: "shmmax" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 536870912 536870912 4294967295 失败 当前值不正确。 配置的值不正确。
datacheck01 536870912 536870912 4294967295 失败 当前值不正确。 配置的值不正确。
结果:"shmmax" 的 内核参数 检查失败
检查: "shmmni" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 4096 4096 4096 通过
datacheck01 4096 4096 4096 通过
结果:"shmmni" 的 内核参数 检查已通过
检查: "shmall" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 2097152 2097152 2097152 通过
datacheck01 2097152 2097152 2097152 通过
结果:"shmall" 的 内核参数 检查已通过
检查: "file-max" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 6815744 6815744 6815744 通过
datacheck01 6815744 6815744 6815744 通过
结果:"file-max" 的 内核参数 检查已通过
检查: "ip_local_port_range" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 between 9000.0 & 65500.0 between 9000.0 & 65500.0 between 9000.0 & 65500.0 通过
datacheck01 between 9000.0 & 65500.0 between 9000.0 & 65500.0 between 9000.0 & 65500.0 通过
结果:"ip_local_port_range" 的 内核参数 检查已通过
检查: "rmem_default" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 4194304 4194304 262144 通过
datacheck01 4194304 4194304 262144 通过
结果:"rmem_default" 的 内核参数 检查已通过
检查: "rmem_max" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 4194304 4194304 4194304 通过
datacheck01 4194304 4194304 4194304 通过
结果:"rmem_max" 的 内核参数 检查已通过
检查: "wmem_default" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 262144 262144 262144 通过
datacheck01 262144 262144 262144 通过
结果:"wmem_default" 的 内核参数 检查已通过
检查: "wmem_max" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 1048576 1048576 1048576 通过
datacheck01 1048576 1048576 1048576 通过
结果:"wmem_max" 的 内核参数 检查已通过
检查: "aio-max-nr" 的 内核参数
节点名 当前值 已配置 必需 状态 注释
---------------- ------------ ------------ ------------ ------------ ------------
datacheck02 1048576 1048576 1048576 通过
datacheck01 1048576 1048576 1048576 通过
结果:"aio-max-nr" 的 内核参数 检查已通过
检查: "make" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 make-3.81-20.el6 make-3.80 通过
datacheck01 make-3.81-20.el6 make-3.80 通过
结果:"make" 的 包存在性 检查已通过
检查: "binutils" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 binutils-2.20.51.0.2-5.36.el6 binutils-2.15.92.0.2 通过
datacheck01 binutils-2.20.51.0.2-5.36.el6 binutils-2.15.92.0.2 通过
结果:"binutils" 的 包存在性 检查已通过
检查: "gcc(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 gcc(x86_64)-4.4.7-3.el6 gcc(x86_64)-3.4.6 通过
datacheck01 gcc(x86_64)-4.4.7-3.el6 gcc(x86_64)-3.4.6 通过
结果:"gcc(x86_64)" 的 包存在性 检查已通过
检查: "libaio(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 libaio(x86_64)-0.3.107-10.el6 libaio(x86_64)-0.3.105 通过
datacheck01 libaio(x86_64)-0.3.107-10.el6 libaio(x86_64)-0.3.105 通过
结果:"libaio(x86_64)" 的 包存在性 检查已通过
检查: "glibc(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 glibc(x86_64)-2.12-1.107.el6 glibc(x86_64)-2.3.4-2.41 通过
datacheck01 glibc(x86_64)-2.12-1.107.el6 glibc(x86_64)-2.3.4-2.41 通过
结果:"glibc(x86_64)" 的 包存在性 检查已通过
检查: "compat-libstdc++-33(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 compat-libstdc++-33(x86_64)-3.2.3-69.el6 compat-libstdc++-33(x86_64)-3.2.3 通过
datacheck01 compat-libstdc++-33(x86_64)-3.2.3-69.el6 compat-libstdc++-33(x86_64)-3.2.3 通过
结果:"compat-libstdc++-33(x86_64)" 的 包存在性 检查已通过
检查: "elfutils-libelf(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 elfutils-libelf(x86_64)-0.152-1.el6 elfutils-libelf(x86_64)-0.97 通过
datacheck01 elfutils-libelf(x86_64)-0.152-1.el6 elfutils-libelf(x86_64)-0.97 通过
结果:"elfutils-libelf(x86_64)" 的 包存在性 检查已通过
检查: "elfutils-libelf-devel" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 elfutils-libelf-devel-0.152-1.el6 elfutils-libelf-devel-0.97 通过
datacheck01 elfutils-libelf-devel-0.152-1.el6 elfutils-libelf-devel-0.97 通过
结果:"elfutils-libelf-devel" 的 包存在性 检查已通过
检查: "glibc-common" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 glibc-common-2.12-1.107.el6 glibc-common-2.3.4 通过
datacheck01 glibc-common-2.12-1.107.el6 glibc-common-2.3.4 通过
结果:"glibc-common" 的 包存在性 检查已通过
检查: "glibc-devel(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 glibc-devel(x86_64)-2.12-1.107.el6 glibc-devel(x86_64)-2.3.4 通过
datacheck01 glibc-devel(x86_64)-2.12-1.107.el6 glibc-devel(x86_64)-2.3.4 通过
结果:"glibc-devel(x86_64)" 的 包存在性 检查已通过
检查: "glibc-headers" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 glibc-headers-2.12-1.107.el6 glibc-headers-2.3.4 通过
datacheck01 glibc-headers-2.12-1.107.el6 glibc-headers-2.3.4 通过
结果:"glibc-headers" 的 包存在性 检查已通过
检查: "gcc-c++(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 gcc-c++(x86_64)-4.4.7-3.el6 gcc-c++(x86_64)-3.4.6 通过
datacheck01 gcc-c++(x86_64)-4.4.7-3.el6 gcc-c++(x86_64)-3.4.6 通过
结果:"gcc-c++(x86_64)" 的 包存在性 检查已通过
检查: "libaio-devel(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 libaio-devel(x86_64)-0.3.107-10.el6 libaio-devel(x86_64)-0.3.105 通过
datacheck01 libaio-devel(x86_64)-0.3.107-10.el6 libaio-devel(x86_64)-0.3.105 通过
结果:"libaio-devel(x86_64)" 的 包存在性 检查已通过
检查: "libgcc(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 libgcc(x86_64)-4.4.7-3.el6 libgcc(x86_64)-3.4.6 通过
datacheck01 libgcc(x86_64)-4.4.7-3.el6 libgcc(x86_64)-3.4.6 通过
结果:"libgcc(x86_64)" 的 包存在性 检查已通过
检查: "libstdc++(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 libstdc++(x86_64)-4.4.7-3.el6 libstdc++(x86_64)-3.4.6 通过
datacheck01 libstdc++(x86_64)-4.4.7-3.el6 libstdc++(x86_64)-3.4.6 通过
结果:"libstdc++(x86_64)" 的 包存在性 检查已通过
检查: "libstdc++-devel(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 libstdc++-devel(x86_64)-4.4.7-3.el6 libstdc++-devel(x86_64)-3.4.6 通过
datacheck01 libstdc++-devel(x86_64)-4.4.7-3.el6 libstdc++-devel(x86_64)-3.4.6 通过
结果:"libstdc++-devel(x86_64)" 的 包存在性 检查已通过
检查: "sysstat" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 sysstat-9.0.4-20.el6 sysstat-5.0.5 通过
datacheck01 sysstat-9.0.4-20.el6 sysstat-5.0.5 通过
结果:"sysstat" 的 包存在性 检查已通过
检查: "pdksh" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 缺失 pdksh-5.2.14 失败
datacheck01 缺失 pdksh-5.2.14 失败
结果:"pdksh" 的 包存在性 检查失败
检查: "expat(x86_64)" 的 包存在性
节点名 可用 必需 状态
------------ ------------------------ ------------------------ ----------
datacheck02 expat(x86_64)-2.0.1-11.el6_2 expat(x86_64)-1.95.7 通过
datacheck01 expat(x86_64)-2.0.1-11.el6_2 expat(x86_64)-1.95.7 通过
结果:"expat(x86_64)" 的 包存在性 检查已通过
检查 UID 值为 0 的多个用户
结果:对 UID 值为 0 的多个用户进行的检查已通过
检查: 当前组 ID
结果:当前组 ID 检查已通过
开始检查 root 用户的主要组的一致性
节点名 状态
------------------------------------ ------------------------
datacheck02 通过
datacheck01 通过
已通过 root 用户主要组的一致性检查
正在使用网络时间协议 (NTP) 启动时钟同步检查...
NTP 配置文件检查开始...
NTP 配置文件 "/etc/ntp.conf" 在所有节点上可用
NTP 配置文件检查通过
未发现任何正在运行的 NTP 守护程序或服务
PRVF-5507 : NTP 守护程序或服务未在任何节点上运行, 但以下节点上存在 NTP 配置文件:
datacheck02,datacheck01
结果:使用网络时间协议 (NTP) 进行时钟同步检查失败
正在检查核心文件名模式一致性...
核心文件名模式一致性检查已通过。
检查以确保用户 "grid" 不在 "root" 组中
节点名 状态 注释
------------ ------------------------ ------------------------
datacheck02 通过 不存在
datacheck01 通过 不存在
结果:用户 "grid" 不属于 "root" 组。检查已通过
检查默认用户文件创建掩码
节点名 可用 必需 注释
------------ ------------------------ ------------------------ ----------
datacheck02 0022 0022 通过
datacheck01 0022 0022 通过
结果:默认用户文件创建掩码检查已通过
检查文件 "/etc/resolv.conf" 在节点间的一致性
检查文件 "/etc/resolv.conf" 以确保只定义了 'domain' 和 'search' 条目中的一个
文件 "/etc/resolv.conf" 未同时定义 'domain' 和 'search' 条目
正在检查文件 "/etc/resolv.conf" 中的 'domain' 条目是否在节点间一致...
文件 "/etc/resolv.conf" 中的 'domain' 条目在节点间一致
正在检查文件 "/etc/resolv.conf" 中的 'search' 条目是否在节点间一致...
文件 "/etc/resolv.conf" 中的 'search' 条目在节点间一致
检查无法访问节点的 DNS 响应时间
节点名 状态
------------------------------------ ------------------------
datacheck02 失败
datacheck01 失败
PRVF-5636 : 在以下节点上, 无法访问的节点的 DNS 响应时间超过 "15000" 毫秒: datacheck02,datacheck01
文件 "/etc/resolv.conf" 在各节点间不一致
检查: 时区一致性
结果:时区一致性 检查已通过
为以下节点生成了修复信息:
datacheck02,datacheck01
请在每个节点上以 "root" 用户身份运行以下脚本来执行修复:
'/tmp/CVU_11.2.0.4.0_grid/runfixup.sh'
在所有节点上预检查 集群服务设置 失败。
./runcluvfy.sh comp nodecon -n datacheck01,datacheck02 -verbose
grid@datacheck01:/soft/grid$ ./runcluvfy.sh comp nodecon -n datacheck01,datacheck02 -verbose
验证 节点连接性
正在检查节点连接性...
正在检查主机配置文件...
节点名 状态
------------------------------------ ------------------------
datacheck02 通过
datacheck01 通过
主机配置文件的验证成功
节点 "datacheck02" 的接口信息
名称 IP 地址 子网 网关 默认网关 HW 地址 MTU
------ --------------- --------------- --------------- --------------- ----------------- ------
eth0 135.149.32.5 135.149.32.0 0.0.0.0 135.149.32.254 00:50:56:BC:9F:F6 1500
eth1 192.168.1.102 192.168.1.0 0.0.0.0 135.149.32.254 00:50:56:BC:6B:6C 1500
节点 "datacheck01" 的接口信息
名称 IP 地址 子网 网关 默认网关 HW 地址 MTU
------ --------------- --------------- --------------- --------------- ----------------- ------
eth0 135.149.32.4 135.149.32.0 0.0.0.0 135.149.32.254 00:50:56:BC:B3:01 1500
eth1 192.168.1.101 192.168.1.0 0.0.0.0 135.149.32.254 00:50:56:BC:AE:6F 1500
检查: 子网 "135.149.32.0" 的节点连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck02[135.149.32.5] datacheck01[135.149.32.4] 是
结果:含有节点 datacheck02,datacheck01 的子网 "135.149.32.0" 的节点连接性检查已通过
检查: 子网 "135.149.32.0" 的 TCP 连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck01:135.149.32.4 datacheck02:135.149.32.5 通过
结果:子网 "135.149.32.0" 的 TCP 连接性检查通过
检查: 子网 "192.168.1.0" 的节点连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck02[192.168.1.102] datacheck01[192.168.1.101] 是
结果:含有节点 datacheck02,datacheck01 的子网 "192.168.1.0" 的节点连接性检查已通过
检查: 子网 "192.168.1.0" 的 TCP 连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck01:192.168.1.101 datacheck02:192.168.1.102 通过
结果:子网 "192.168.1.0" 的 TCP 连接性检查通过
在子网 "135.149.32.0" 上找到的很可能是用于 VIP 的候选接口的接口为:
datacheck02 eth0:135.149.32.5
datacheck01 eth0:135.149.32.4
在子网 "192.168.1.0" 上找到的很可能是用于专用互连的候选接口的接口为:
datacheck02 eth1:192.168.1.102
datacheck01 eth1:192.168.1.101
正在检查子网掩码一致性...
子网 "135.149.32.0" 的子网掩码一致性检查已通过。
子网 "192.168.1.0" 的子网掩码一致性检查已通过。
子网掩码一致性检查已通过。
结果:节点连接性检查已通过
节点连接性 的验证成功。
./runcluvfy.sh stage -post hwos -n datacheck01,datacheck02 -verbose
grid@datacheck01:/soft/grid$ ./runcluvfy.sh stage -post hwos -n datacheck01,datacheck02 -verbose
执行 硬件和操作系统设置 的后期检查
正在检查节点的可访问性...
检查: 节点 "datacheck01" 的节点可访问性
目标节点 是否可访问
------------------------------------ ------------------------
datacheck02 是
datacheck01 是
结果:节点 "datacheck01" 的节点可访问性检查已通过
正在检查等同用户...
检查: 用户 "grid" 的等同用户
节点名 状态
------------------------------------ ------------------------
datacheck02 通过
datacheck01 通过
结果:用户 "grid" 的等同用户检查已通过
正在检查节点连接性...
正在检查主机配置文件...
节点名 状态
------------------------------------ ------------------------
datacheck02 通过
datacheck01 通过
主机配置文件的验证成功
节点 "datacheck02" 的接口信息
名称 IP 地址 子网 网关 默认网关 HW 地址 MTU
------ --------------- --------------- --------------- --------------- ----------------- ------
eth0 135.149.32.5 135.149.32.0 0.0.0.0 135.149.32.254 00:50:56:BC:9F:F6 1500
eth1 192.168.1.102 192.168.1.0 0.0.0.0 135.149.32.254 00:50:56:BC:6B:6C 1500
节点 "datacheck01" 的接口信息
名称 IP 地址 子网 网关 默认网关 HW 地址 MTU
------ --------------- --------------- --------------- --------------- ----------------- ------
eth0 135.149.32.4 135.149.32.0 0.0.0.0 135.149.32.254 00:50:56:BC:B3:01 1500
eth1 192.168.1.101 192.168.1.0 0.0.0.0 135.149.32.254 00:50:56:BC:AE:6F 1500
检查: 子网 "135.149.32.0" 的节点连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck02[135.149.32.5] datacheck01[135.149.32.4] 是
结果:含有节点 datacheck02,datacheck01 的子网 "135.149.32.0" 的节点连接性检查已通过
检查: 子网 "135.149.32.0" 的 TCP 连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck01:135.149.32.4 datacheck02:135.149.32.5 通过
结果:子网 "135.149.32.0" 的 TCP 连接性检查通过
检查: 子网 "192.168.1.0" 的节点连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck02[192.168.1.102] datacheck01[192.168.1.101] 是
结果:含有节点 datacheck02,datacheck01 的子网 "192.168.1.0" 的节点连接性检查已通过
检查: 子网 "192.168.1.0" 的 TCP 连接性
源 目标 是否已连接
------------------------------ ------------------------------ ----------------
datacheck01:192.168.1.101 datacheck02:192.168.1.102 通过
结果:子网 "192.168.1.0" 的 TCP 连接性检查通过
在子网 "135.149.32.0" 上找到的很可能是用于 VIP 的候选接口的接口为:
datacheck02 eth0:135.149.32.5
datacheck01 eth0:135.149.32.4
在子网 "192.168.1.0" 上找到的很可能是用于专用互连的候选接口的接口为:
datacheck02 eth1:192.168.1.102
datacheck01 eth1:192.168.1.101
正在检查子网掩码一致性...
子网 "135.149.32.0" 的子网掩码一致性检查已通过。
子网 "192.168.1.0" 的子网掩码一致性检查已通过。
子网掩码一致性检查已通过。
结果:节点连接性检查已通过
正在检查多点传送通信...
正在检查子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。
正在检查子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。
多点传送通信检查已通过。
检查 UID 值为 0 的多个用户
结果:对 UID 值为 0 的多个用户进行的检查已通过
检查: 时区一致性
结果:时区一致性 检查已通过
正在检查共享存储的可访问性...
WARNING:
datacheck01:PRVF-7017 : 未安装程序包 cvuqdisk
datacheck02,datacheck01
未找到共享存储
节点 "datacheck02,datacheck01" 上的共享存储检查失败
Checking integrity of name service switch configuration file "/etc/nsswitch.conf" ...
Checking if "hosts" entry in file "/etc/nsswitch.conf" is consistent across nodes...
Checking file "/etc/nsswitch.conf" to make sure that only one "hosts" entry is defined
More than one "hosts" entry does not exist in any "/etc/nsswitch.conf" file
All nodes have same "hosts" entry defined in file "/etc/nsswitch.conf"
Check for integrity of name service switch configuration file "/etc/nsswitch.conf" passed
在所有节点上 硬件和操作系统设置 的后期检查失败。
./runcluvfy.sh comp ssa -n datacheck01,datacheck02 -s /dev/sdb
grid@datacheck01:/soft/grid$ ./runcluvfy.sh comp ssa -n datacheck01,datacheck02 -s /dev/sdb5,/dev/sbd6,/dev/sdb7,/dev/sdb8,/dev/sdb9
验证 共享存储的可访问性
正在检查共享存储的可访问性...
ERROR: /dev/hdisk18
PRVF-10406 : 路径 "/dev" 不适合用于 RAC 数据库文件
ERROR: /dev/sdb5
datacheck02:PRVF-7017 : 未安装程序包 cvuqdisk
ERROR: /dev/sbd6
PRVF-10406 : 路径 "/dev" 不适合用于 RAC 数据库文件
ERROR: /dev/sdb7
datacheck02:PRVF-7017 : 未安装程序包 cvuqdisk
ERROR: /dev/sdb8
datacheck02:PRVF-7017 : 未安装程序包 cvuqdisk
ERROR: /dev/sdb9
datacheck02:PRVF-7017 : 未安装程序包 cvuqdisk
节点 "datacheck02,datacheck01" 上的共享存储检查失败
在所有指定节点上验证 共享存储的可访问性 失败。
./runcluvfy.sh stage -pre crsinst -n datacheck01,datacheck02
grid@datacheck01:/soft/grid$ ./runcluvfy.sh stage -pre crsinst -n datacheck01,datacheck02
执行 集群服务设置 的预检查
正在检查节点的可访问性...
节点 "datacheck01" 的节点可访问性检查已通过
正在检查等同用户...
用户 "grid" 的等同用户检查已通过
正在检查节点连接性...
正在检查主机配置文件...
主机配置文件的验证成功
含有节点 datacheck02,datacheck01 的子网 "135.149.32.0" 的节点连接性检查已通过
子网 "135.149.32.0" 的 TCP 连接性检查通过
含有节点 datacheck02,datacheck01 的子网 "192.168.1.0" 的节点连接性检查已通过
子网 "192.168.1.0" 的 TCP 连接性检查通过
在子网 "135.149.32.0" 上找到的很可能是用于 VIP 的候选接口的接口为:
datacheck02 eth0:135.149.32.5
datacheck01 eth0:135.149.32.4
在子网 "192.168.1.0" 上找到的很可能是用于专用互连的候选接口的接口为:
datacheck02 eth1:192.168.1.102
datacheck01 eth1:192.168.1.101
正在检查子网掩码一致性...
子网 "135.149.32.0" 的子网掩码一致性检查已通过。
子网 "192.168.1.0" 的子网掩码一致性检查已通过。
子网掩码一致性检查已通过。
节点连接性检查已通过
正在检查多点传送通信...
正在检查子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "135.149.32.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。
正在检查子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...
子网 "192.168.1.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。
多点传送通信检查已通过。
检查 ASMLib 配置。
ERROR:
PRVF-10105 : 在以下节点上未安装 ASMLib:
在以下节点上检查失败:
datacheck02
ASMLib 配置检查失败。
内存总量 检查已通过
可用内存 检查已通过
交换空间 检查已通过
"datacheck02:/tmp" 的 空闲磁盘空间 检查已通过
"datacheck01:/tmp" 的 空闲磁盘空间 检查已通过
对 UID 值为 503 的多个用户进行的检查已通过
"grid" 的 用户存在性 检查已通过
"oinstall" 的 组存在性 检查已通过
"dba" 的 组存在性 检查已通过
组 "oinstall" 中用户 "grid" 的成员资格检查 [作为 主] 已通过
组 "dba" 中用户 "grid" 的成员资格检查已通过
运行级别 检查已通过
"打开的文件描述符的最大数" 的 硬性限制 检查已通过
"打开的文件描述符的最大数" 的 软性限制 检查已通过
"最大用户进程数" 的 硬性限制 检查已通过
"最大用户进程数" 的 软性限制 检查已通过
系统体系结构 检查已通过
内核版本 检查已通过
"semmsl" 的 内核参数 检查已通过
"semmns" 的 内核参数 检查已通过
"semopm" 的 内核参数 检查已通过
"semmni" 的 内核参数 检查已通过
"shmmax" 的 内核参数 检查失败
在以下节点上检查失败:
datacheck02,datacheck01
"shmmni" 的 内核参数 检查已通过
"shmall" 的 内核参数 检查已通过
"file-max" 的 内核参数 检查已通过
"ip_local_port_range" 的 内核参数 检查已通过
"rmem_default" 的 内核参数 检查已通过
"rmem_max" 的 内核参数 检查已通过
"wmem_default" 的 内核参数 检查已通过
"wmem_max" 的 内核参数 检查已通过
"aio-max-nr" 的 内核参数 检查已通过
"make" 的 包存在性 检查已通过
"binutils" 的 包存在性 检查已通过
"gcc(x86_64)" 的 包存在性 检查已通过
"libaio(x86_64)" 的 包存在性 检查已通过
"glibc(x86_64)" 的 包存在性 检查已通过
"compat-libstdc++-33(x86_64)" 的 包存在性 检查已通过
"elfutils-libelf(x86_64)" 的 包存在性 检查已通过
"elfutils-libelf-devel" 的 包存在性 检查已通过
"glibc-common" 的 包存在性 检查已通过
"glibc-devel(x86_64)" 的 包存在性 检查已通过
"glibc-headers" 的 包存在性 检查已通过
"gcc-c++(x86_64)" 的 包存在性 检查已通过
"libaio-devel(x86_64)" 的 包存在性 检查已通过
"libgcc(x86_64)" 的 包存在性 检查已通过
"libstdc++(x86_64)" 的 包存在性 检查已通过
"libstdc++-devel(x86_64)" 的 包存在性 检查已通过
"sysstat" 的 包存在性 检查已通过
"pdksh" 的 包存在性 检查失败
在以下节点上检查失败:
datacheck02,datacheck01
"expat(x86_64)" 的 包存在性 检查已通过
对 UID 值为 0 的多个用户进行的检查已通过
当前组 ID 检查已通过
开始检查 root 用户的主要组的一致性
已通过 root 用户主要组的一致性检查
正在使用网络时间协议 (NTP) 启动时钟同步检查...
NTP 配置文件检查开始...
NTP 配置文件检查通过
未发现任何正在运行的 NTP 守护程序或服务
PRVF-5507 : NTP 守护程序或服务未在任何节点上运行, 但以下节点上存在 NTP 配置文件:
datacheck02,datacheck01
使用网络时间协议 (NTP) 进行时钟同步检查失败
核心文件名模式一致性检查已通过。
用户 "grid" 不属于 "root" 组。检查已通过
默认用户文件创建掩码检查已通过
检查文件 "/etc/resolv.conf" 在节点间的一致性
文件 "/etc/resolv.conf" 未同时定义 'domain' 和 'search' 条目
文件 "/etc/resolv.conf" 中的 'domain' 条目在节点间一致
文件 "/etc/resolv.conf" 中的 'search' 条目在节点间一致
PRVF-5636 : 在以下节点上, 无法访问的节点的 DNS 响应时间超过 "15000" 毫秒: datacheck02,datacheck01
文件 "/etc/resolv.conf" 在各节点间不一致
时区一致性 检查已通过
在所有节点上预检查 集群服务设置 失败。
./runcluvfy.sh stage -pre dbinst -n datacheck01,datacheck02 -verbose
grid@datacheck01:/soft/grid$ ./runcluvfy.sh stage -pre dbinst -n datacheck01,datacheck02 -verbose
执行 数据库安装 的预检查
ERROR:
PRVF-4025 : 产品清单配置文件 "/etc/oraInst.loc" 不存在
正在检查节点的可访问性...
检查: 节点 "datacheck01" 的节点可访问性
目标节点 是否可访问
------------------------------------ ------------------------
datacheck02 是
datacheck01 是
结果:节点 "datacheck01" 的节点可访问性检查已通过
正在检查等同用户...
检查: 用户 "grid" 的等同用户
节点名 状态
------------------------------------ ------------------------
datacheck02 通过
datacheck01 通过
结果:用户 "grid" 的等同用户检查已通过
ERROR:
无法读取产品清单配置文件 "/etc/oraInst.loc"
ERROR:
PRVF-4037 : 在任一节点上都未安装 CRS
验证无法继续
./runcluvfy.sh stage -pre dbcfg -n datacheck01,datacheck02 -d $ORACLE_HOME –verbose
11、开始图形化安装
grid@datacheck01:/soft/grid$ ./runInstaller
正在启动 Oracle Universal Installer...
检查临时空间: 必须大于 120 MB。 实际为 33535 MB 通过
检查交换空间: 必须大于 150 MB。 实际为 32287 MB 通过
检查监视器: 监视器配置至少必须显示 256 种颜色
>>> 无法使用命令 /usr/bin/xdpyinfo 自动检查显示器颜色。请检查是否设置了 DISPLAY 变量。 未通过 <<<<
未通过某些要求检查。必须先满足这些 要求,
然后才能继续安装,
是否继续 (y/n) [n] y
>>> 忽略未通过的必需先决条件。继续...
准备从以下地址启动 Oracle Universal Installer /tmp/OraInstall2014-03-12_03-20-26PM. 请稍候...
grid@datacheck01:/soft/grid$
grid@datacheck01:/soft/grid$ Exception in thread "main" java.lang.NoClassDefFoundError
at java.lang.Class.forName0(Native Method)
at java.lang.Class.forName(Class.java:164)
at java.awt.Toolkit$2.run(Toolkit.java:821)
at java.security.AccessController.doPrivileged(Native Method)
at java.awt.Toolkit.getDefaultToolkit(Toolkit.java:804)
at com.jgoodies.looks.LookUtils.isLowResolution(LookUtils.java:484)
at com.jgoodies.looks.LookUtils.<clinit>(LookUtils.java:249)
at com.jgoodies.looks.plastic.PlasticLookAndFeel.<clinit>(PlasticLookAndFeel.java:135)
at java.lang.Class.forName0(Native Method)
at java.lang.Class.forName(Class.java:242)
at javax.swing.SwingUtilities.loadSystemClass(SwingUtilities.java:1779)
at javax.swing.UIManager.setLookAndFeel(UIManager.java:453)
at oracle.install.commons.util.Application.startup(Application.java:785)
at oracle.install.commons.flow.FlowApplication.startup(FlowApplication.java:165)
at oracle.install.commons.flow.FlowApplication.startup(FlowApplication.java:182)
at oracle.install.commons.base.driver.common.Installer.startup(Installer.java:348)
at oracle.install.ivw.crs.driver.CRSInstaller.startup(CRSInstaller.java:98)
at oracle.install.ivw.crs.driver.CRSInstaller.main(CRSInstaller.java:105)
此问题需要用root用户执行xhost local:oracle
12、rhel6.4 oracle提供了asmlib包,如未找到asmlib包可通过如下方法绑定asm设备
linux使用asm安装11grac时,需绑定磁盘的uuid,比如我们要使用/dev/sdb作为asm的磁盘,那么获取方法如下:
如果使用vmware虚拟机,则需要在vmware的配置文件里加入disk.EnableUUID='TRUE',才可以获取uuid。
scsi_id --whitelisted --replace--whitespace --device=/dev/sdb
13、asm服务配置
service oracleasm configure
Default user to own the driver interface [grid]: grid
Default group to own the driver interface [dba]: asmadmin
Start Oracle ASM library driver on boot (y/n) [y]: y
Scan for Oracle ASM disks on boot (y/n) [y]: y
Writing Oracle ASM library driver configuration: done
Initializing the Oracle ASMLib driver: [ OK ]
Scanning the system for Oracle ASMLib disks: [ OK ]
---------不禁用selinux导致报错,创建asm磁盘报错,如下:
Disk "OCR_VOTE1" does not exist or is not instantiated
Writing disk header: done
Instantiating disk: oracleasm-instantiate-disk: Unable to create ASM disk "OCR_VOTE1": Permission denied
failed
Clearing disk header: done
------禁用selinux方式
[root@datacheck02 ~]# vi /etc/selinux/config
# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
# enforcing - SELinux security policy is enforced.
# permissive - SELinux prints warnings instead of enforcing.
# disabled - No SELinux policy is loaded.
SELINUX=permissive
# SELINUXTYPE= can take one of these two values:
# targeted - Targeted processes are protected,
# mls - Multi Level Security protection.
SELINUXTYPE=targeted
setenforce 0
getenforce
14、创建asm磁盘
------------1节点创建asm磁盘
service oracleasm createdisk OCR_VOTE1 /dev/sdb5
service oracleasm createdisk OCR_VOTE2 /dev/sdb6
service oracleasm createdisk OCR_VOTE3 /dev/sdb7
service oracleasm createdisk OCR_VOTE4 /dev/sdb8
service oracleasm createdisk OCR_VOTE5 /dev/sdb9
service oracleasm createdisk VOL1 /dev/sdb10
service oracleasm createdisk VOL2 /dev/sdb11
service oracleasm createdisk VOL3 /dev/sdb12
service oracleasm createdisk VOL4 /dev/sdb13
service oracleasm createdisk VOL5 /dev/sdb14
service oracleasm createdisk VOL6 /dev/sdb15
service oracleasm listdisks
--------2节点扫描asm磁盘
service oracleasm scandisks
service oracleasm listdisks
--------图形化界面报错,执行如下命令
xhost local:oracle
15、关闭防火墙否则会报错
--------确认两节点都关闭了防火墙,否则会报如下报错
Multicast check - This task checks that network interfaces in subnet are able to communicate over multicast IP address
Check Failed on Nodes: [datacheck02, datacheck01]
Verification result of failed node: datacheck02
Details:
16、安装完毕执行root.sh脚本
-------./root.sh执行
1节点
[root@datacheck01 11.2.0]# ./root.sh
Performing root user operation for Oracle 11g
The following environment variables are set as:
ORACLE_OWNER= grid
ORACLE_HOME= /u01/app/grid/11.2.0
Enter the full pathname of the local bin directory: [/usr/local/bin]:
Copying dbhome to /usr/local/bin ...
Copying oraenv to /usr/local/bin ...
Copying coraenv to /usr/local/bin ...
Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/grid/11.2.0/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
OLR initialization - successful
root wallet
root wallet cert
root cert export
peer wallet
profile reader wallet
pa wallet
peer wallet keys
pa wallet keys
peer cert request
pa cert request
peer cert
pa cert
peer root cert TP
profile reader root cert TP
pa root cert TP
peer pa cert TP
pa peer cert TP
profile reader pa cert TP
profile reader peer cert TP
peer user cert
pa user cert
Adding Clusterware entries to upstart
CRS-2672: Attempting to start 'ora.mdnsd' on 'datacheck01'
CRS-2676: Start of 'ora.mdnsd' on 'datacheck01' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'datacheck01'
CRS-2676: Start of 'ora.gpnpd' on 'datacheck01' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'datacheck01'
CRS-2672: Attempting to start 'ora.gipcd' on 'datacheck01'
CRS-2676: Start of 'ora.cssdmonitor' on 'datacheck01' succeeded
CRS-2676: Start of 'ora.gipcd' on 'datacheck01' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'datacheck01'
CRS-2672: Attempting to start 'ora.diskmon' on 'datacheck01'
CRS-2676: Start of 'ora.diskmon' on 'datacheck01' succeeded
CRS-2676: Start of 'ora.cssd' on 'datacheck01' succeeded
ASM created and started successfully.
Disk Group OCR_VOTE created successfully.
clscfg: -install mode specified
Successfully accumulated necessary OCR keys.
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
CRS-4256: Updating the profile
Successful addition of voting disk 8e2f6a12fc0c4f3dbf4d153cf4b876d5.
Successful addition of voting disk 9e71e8a2a9b24f88bf9cd1fb9b13ef08.
Successful addition of voting disk 503df41e0c384f39bf9b700e1948af9c.
Successful addition of voting disk a900e5c172384fedbfe3ba83ac0aad01.
Successful addition of voting disk 1e32c962ae0a4f17bf9ae8d6a05e2fbb.
Successfully replaced voting disk group with +OCR_VOTE.
CRS-4256: Updating the profile
CRS-4266: Voting file(s) successfully replaced
## STATE File Universal Id File Name Disk group
-- ----- ----------------- --------- ---------
1. ONLINE 8e2f6a12fc0c4f3dbf4d153cf4b876d5 (ORCL:OCR_VOTE1) [OCR_VOTE]
2. ONLINE 9e71e8a2a9b24f88bf9cd1fb9b13ef08 (ORCL:OCR_VOTE2) [OCR_VOTE]
3. ONLINE 503df41e0c384f39bf9b700e1948af9c (ORCL:OCR_VOTE3) [OCR_VOTE]
4. ONLINE a900e5c172384fedbfe3ba83ac0aad01 (ORCL:OCR_VOTE4) [OCR_VOTE]
5. ONLINE 1e32c962ae0a4f17bf9ae8d6a05e2fbb (ORCL:OCR_VOTE5) [OCR_VOTE]
Located 5 voting disk(s).
CRS-2672: Attempting to start 'ora.asm' on 'datacheck01'
CRS-2676: Start of 'ora.asm' on 'datacheck01' succeeded
CRS-2672: Attempting to start 'ora.OCR_VOTE.dg' on 'datacheck01'
CRS-2676: Start of 'ora.OCR_VOTE.dg' on 'datacheck01' succeeded
Configure Oracle Grid Infrastructure for a Cluster ... succeeded
--2节点
[root@datacheck02 11.2.0]# ./root.sh
Performing root user operation for Oracle 11g
The following environment variables are set as:
ORACLE_OWNER= grid
ORACLE_HOME= /u01/app/grid/11.2.0
Enter the full pathname of the local bin directory: [/usr/local/bin]:
Copying dbhome to /usr/local/bin ...
Copying oraenv to /usr/local/bin ...
Copying coraenv to /usr/local/bin ...
Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/grid/11.2.0/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
OLR initialization - successful
Adding Clusterware entries to upstart
CRS-4402: The CSS daemon was started in exclusive mode but found an active CSS daemon on node datacheck01, number 1, and is terminating
An active cluster was found during exclusive startup, restarting to join the cluster
Configure Oracle Grid Infrastructure for a Cluster ... succeeded
17、检查grid相关服务
grid@datacheck01:/home/grid$ crs_stat -t
Name Type Target State Host
------------------------------------------------------------
ora....N1.lsnr ora....er.type ONLINE ONLINE datacheck01
ora....VOTE.dg ora....up.type ONLINE ONLINE datacheck01
ora.asm ora.asm.type ONLINE ONLINE datacheck01
ora.cvu ora.cvu.type ONLINE ONLINE datacheck01
ora....SM1.asm application ONLINE ONLINE datacheck01
ora....k01.gsd application OFFLINE OFFLINE
ora....k01.ons application ONLINE ONLINE datacheck01
ora....k01.vip ora....t1.type ONLINE ONLINE datacheck01
ora....SM2.asm application ONLINE ONLINE datacheck02
ora....k02.gsd application OFFLINE OFFLINE
ora....k02.ons application ONLINE ONLINE datacheck02
ora....k02.vip ora....t1.type ONLINE ONLINE datacheck02
ora.gsd ora.gsd.type OFFLINE OFFLINE
ora....network ora....rk.type ONLINE ONLINE datacheck01
ora.oc4j ora.oc4j.type ONLINE ONLINE datacheck01
ora.ons ora.ons.type ONLINE ONLINE datacheck01
ora....ry.acfs ora....fs.type ONLINE ONLINE datacheck01
ora.scan1.vip ora....ip.type ONLINE ONLINE datacheck01
18、安装完毕会报一个报错,此报错可以忽略
Cause-The plug-in failed in its perform method Action-Refer to the logs or contact Oracle Support Services. Log File Location
/u01/app/oraInventory/logs/installActions2012-10-25_06-12-08AM.log
19、配置总结
1、linux防火墙一定要关闭
2、linux的时钟同步服务ntpd如果不配置的话,需要把/etc/ntp.conf备份保存,这样oracle就可以用自己的时钟同步服务
mv /etc/ntp.conf /etc/ntp.conf.bak
遇到的报错如下:
$GRID_HOME/log/alert*.log
[client(5337)]CRS-4743:File /u01/app/grid/11.2.0/oc4j/j2ee/home/OC4J_DBWLM_config/system-jazn-data.xml was updated from OCR(Size: 13
365(New), 13378(Old) bytes)
2014-03-17 15:25:04.275:
[/u01/app/grid/11.2.0/bin/orarootagent.bin(5191)]CRS-5822:Agent '/u01/app/grid/11.2.0/bin/orarootagent_root' disconnected from serve
r. Details at (:CRSAGF00117:) {0:5:9} in /u01/app/grid/11.2.0/log/datacheck02/agent/crsd/orarootagent_root/orarootagent_root.log.
2014-03-17 15:25:05.182:
[ctssd(4563)]CRS-2405:The Cluster Time Synchronization Service on host datacheck02 is shutdown by user
2014-03-17 15:25:15.092:
[cssd(4124)]CRS-1603:CSSD on node datacheck02 shutdown by user.
2014-03-17 15:25:15.201:
[ohasd(3430)]CRS-2767:Resource state recovery not attempted for 'ora.cssdmonitor' as its target state is OFFLINE
2014-03-17 15:25:15.201:
[ohasd(3430)]CRS-2769:Unable to failover resource 'ora.cssdmonitor'.
2014-03-17 15:25:15.295:
[cssd(4124)]CRS-1660:The CSS daemon shutdown has completed
2014-03-17 15:26:55.523:
[cssd(29146)]CRS-1713:CSSD daemon is started in clustered mode
2014-03-17 15:26:57.297:
[ohasd(3430)]CRS-2767:Resource state recovery not attempted for 'ora.diskmon' as its target state is OFFLINE
2014-03-17 15:26:57.297:
[ohasd(3430)]CRS-2769:Unable to failover resource 'ora.diskmon'.
2014-03-17 15:27:21.680:
[cssd(29146)]CRS-1707:Lease acquisition for node datacheck02 number 2 completed
2014-03-17 15:27:22.986:
[cssd(29146)]CRS-1605:CSSD voting file is online: ORCL:OCR_VOTE5; details in /u01/app/grid/11.2.0/log/datacheck02/cssd/ocssd.log.
2014-03-17 15:27:22.998:
[cssd(29146)]CRS-1605:CSSD voting file is online: ORCL:OCR_VOTE4; details in /u01/app/grid/11.2.0/log/datacheck02/cssd/ocssd.log.
2014-03-17 15:27:23.009:
[cssd(29146)]CRS-1605:CSSD voting file is online: ORCL:OCR_VOTE3; details in /u01/app/grid/11.2.0/log/datacheck02/cssd/ocssd.log.
2014-03-17 15:27:23.021:
[cssd(29146)]CRS-1605:CSSD voting file is online: ORCL:OCR_VOTE2; details in /u01/app/grid/11.2.0/log/datacheck02/cssd/ocssd.log.
2014-03-17 15:27:23.032:
[cssd(29146)]CRS-1605:CSSD voting file is online: ORCL:OCR_VOTE1; details in /u01/app/grid/11.2.0/log/datacheck02/cssd/ocssd.log.
2014-03-17 15:30:17.519:
[client(29639)]CRS-1013:The OCR location in an ASM disk group is inaccessible. Details in /u01/app/grid/11.2.0/log/datacheck02/clien
t/crsctl_grid.log.
2014-03-17 15:30:27.145:
[client(29954)]CRS-1013:The OCR location in an ASM disk group is inaccessible. Details in /u01/app/grid/11.2.0/log/datacheck02/clien
t/crsctl_grid.log.
2014-03-17 15:41:15.661: [ CSSD][2427000576]clssgmDiscEndpcl: gipcDestroy 0x38e3
2014-03-17 15:41:16.415: [ CSSD][2191963904]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81116, LATS 6832744, lastSeqNo 81111, uniqueness 1395040768, timestamp 1395042078/1609984
2014-03-17 15:41:16.437: [ CSSD][1543501568]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81117, LATS 6832764, lastSeqNo 81112, uniqueness 1395040768, timestamp 1395042078/1609994
2014-03-17 15:41:16.493: [ CSSD][2187233024]clssgmWaitOnEventValue: after CmInfo State val 3, eval 1 waited 0
2014-03-17 15:41:16.998: [ CSSD][2184079104]clssnmSendingThread: sending join msg to all nodes
2014-03-17 15:41:16.998: [ CSSD][2184079104]clssnmSendingThread: sent 5 join msgs to all nodes
2014-03-17 15:41:17.416: [ CSSD][2191963904]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81121, LATS 6833744, lastSeqNo 81116, uniqueness 1395040768, timestamp 1395042079/1610984
2014-03-17 15:41:17.439: [ CSSD][1543501568]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81122, LATS 6833774, lastSeqNo 81117, uniqueness 1395040768, timestamp 1395042079/1610994
2014-03-17 15:41:17.493: [ CSSD][2187233024]clssgmWaitOnEventValue: after CmInfo State val 3, eval 1 waited 0
2014-03-17 15:41:18.418: [ CSSD][2191963904]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81126, LATS 6834744, lastSeqNo 81121, uniqueness 1395040768, timestamp 1395042080/1611984
2014-03-17 15:41:18.440: [ CSSD][1543501568]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81127, LATS 6834774, lastSeqNo 81122, uniqueness 1395040768, timestamp 1395042080/1611994
2014-03-17 15:41:18.493: [ CSSD][2187233024]clssgmWaitOnEventValue: after CmInfo State val 3, eval 1 waited 0
2014-03-17 15:41:19.420: [ CSSD][2191963904]clssnmvDHBValidateNcopy: node 1, datacheck01, has a disk HB, but no network HB, DHB h
as rcfg 290535920, wrtcnt, 81131, LATS 6835754, lastSeqNo 81126, uniqueness 1395040768, timestamp 1395042081/1612994
2014-03-17 15:41:19.493: [ CSSD][2187233024]clssgmWaitOnEventValue: after CmInfo State val 3, eval 1 waited 0
2014-03-17 15:41:20.411: [ CSSD][2427000576]clssgmDeadProc: proc 0x7f138807db40
2014-03-17 15:41:20.411: [ CSSD][2427000576]clssgmDestroyProc: cleaning up proc(0x7f138807db40) con(0x387d) skgpid ospid 4168 wi
th 0 clients, refcount 0
2014-03-17 15:41:20.411: [ CSSD][2427000576]clssgmDiscEndpcl: gipcDestroy 0x387d
2014-03-17 15:41:20.414: [ CSSD][2427000576]clssscSelect: cookie accept request 0xf01090
2014-03-17 15:41:20.414: [ CSSD][2427000576]clssgmAllocProc: (0x7f13880665e0) allocated
2014-03-17 15:41:20.415: [ CSSD][2427000576]clssgmClientConnectMsg: properties of cmProc 0x7f13880665e0 - 1,2,3,4,5
2014-03-17 15:41:20.415: [ CSSD][2427000576]clssgmClientConnectMsg: Connect from con(0x396d) proc(0x7f13880665e0) pid(4168) versi
on 11:2:1:4, properties: 1,2,3,4,5
20、创建数据库
如遇到建库是提示需要输入asmsnmp密码,但是输入密码后又提示报错的可以通过登录asm实例来修改asmsnmp密码
ASM实例如果已启动,用网格用户(通常是grid用户)输入:sqlplus / as sysasm
然后:
alter user ASMSNMP identified by 新密码;
--------------停止11g集群后任然存在的进程
crsctl stop cluster -all
root 1882 1 0 Mar17 ? 00:03:27 /u01/app/grid/11.2.0/jdk/jre/bin/java -Xms64m -Xmx256m -classpath /u01/app/grid/11.2.0/tfa/datacheck01/tfa_home/jar/RATFA.jar:/u01/app/grid/11.2.0/tfa/datacheck01/tfa_home/jar/je-4.0.103.jar:/u01/app/grid/11.2.0/tfa/datacheck01/tfa_home/jar/ojdbc6.jar oracle.rat.tfa.TFAMain /u01/app/grid/11.2.0/tfa/datacheck01/tfa_home
root 3198 1 0 Mar17 ? 00:07:31 /u01/app/grid/11.2.0/bin/ohasd.bin reboot
grid 3597 1 0 Mar17 ? 00:05:23 /u01/app/grid/11.2.0/bin/oraagent.bin
grid 3608 1 0 Mar17 ? 00:00:04 /u01/app/grid/11.2.0/bin/mdnsd.bin
grid 3618 1 0 Mar17 ? 00:00:59 /u01/app/grid/11.2.0/bin/gpnpd.bin
grid 3631 1 0 Mar17 ? 00:06:47 /u01/app/grid/11.2.0/bin/gipcd.bin
root 3632 1 0 Mar17 ? 00:06:36 /u01/app/grid/11.2.0/bin/orarootagent.bin
root 3646 1 3 Mar17 ? 00:38:16 /u01/app/grid/11.2.0/bin/osysmond.bin
root 3867 1 0 Mar17 ? 00:01:57 /u01/app/grid/11.2.0/bin/ologgerd -m datacheck02 -r -d /u01/app/grid/11.2.0/crf/db/datacheck01
crsctl stat res -t
srvctl stop scan_listener
srvctl status scan
srvctl status scan_listener
srvctl relocate scan_listener -i 1 -n rac2
11G RAC 通过SCAN IP连数据库报ORA-12537
以下是MOS [ID 1069517.1]资料:
Symptoms
In environment where listener home (including SCAN listener which resides in Grid Infrastructure/ASM home) and database home are owned by different OS user, ORA-12537 could happen when connecting through listener, when creating database through DBCA, or when installing database software and creating a database in runInstaller. Job Role Separation is a typical example as SCAN and local grid home listener is owned differently than database.
Error detail
12537, 00000, "TNS:connection closed"
// *Cause: "End of file" condition has been reached; partner has disconnected.
// *Action: None needed; this is an information message.
Before the error is reported, connection could hang for a while, and a core file may also be generated.
Screen output:
SQL> conn system/xxx@OSES
ERROR:
ORA-12537: TNS:connection closed
OR
PRCR-1079 : Failed to start resource ora.db11.db
CRS-5011: Check of resource db11 failed: details at ..
CRS-2674: Start of ora.db11.db on racnode1 failed
ORA-12546: TNS:permission denied
listener_scann.log or listener.log
TNS-12518: TNS:listener could not hand off client connection
TNS-12546: TNS:permission denied
TNS-12560: TNS:protocol adapter error
TNS-00516: Permission denied
Linux Error: 13: Permission denied
OR
TNS-12518: TNS:listener could not hand off client connection
TNS-12547: TNS:lost contact
TNS-12560: TNS:protocol adapter error
TNS-00517: Lost contact
Linux Error: 32: Broken pipe
runInstaller error if installing
INFO: Starting Output Reader Threads for process /ocw/grid/bin/kfod
INFO: Parsing KFOD-00300: OCI error [-1] [OCI error] [ORA-12547: TNS:lost contact
INFO: Parsing ] [12547]
INFO: Parsing
INFO: The process /ocw/grid/bin/kfod exited with code 1
..
SEVERE: [FATAL] [INS-30502] No ASM disk group found.
CAUSE: There were no disk groups managed by the ASM instance +ASM1.
Cause
1. Listener owner (including SCAN listener) can not access oracle binary in database home:
As listener owner:
$ ls -l $RDBMS_HOME/bin/oracle
ls: /home/oracle/app/oracle/product/11.2/db/bin/oracle: Permission denied
2. Oracle binary in database home has wrong permission:
ls -l $RDBMS_HOME/bin/oracle
-rwxr-x--x 1 oracle asmadmin 184286251 Aug 9 16:25 /home/oracle/app/oracle/product/11.2/db/bin/oracle
The permission "-rwxr-x--x" is wrong as it's missing suid bit, oracle binary should have permission of 6751:
-rwsr-s--x 1 oracle asmadmin 184286251 Aug 9 16:25 /home/oracle/app/oracle/product/11.2/db/bin/oracle
Note: If Job Role Separation is in place, the group will be <asmadmin>, otherwise it will be <oinstall>
3. File System for database home does not support setuid/suid or has nosetuid/nosuid set:
mount| grep <mount_point_of_ORACLE_HOME>
/home/oracle on /dev/dsk/diskoracle read/write/nosuid..
Solution
Solution is to make sure file system for database home has setuid/suid set, database binary($RDBMS_HOME/bin/oracle) has correct ownership and permission, and listener owner is able to access database oracle binary (as listener owner, "ls -l $RDBMS_HOME/bin/oracle" will tell)
If its Job Role Separation environment, please refer to the following document:
Oracle? Grid Infrastructure
Installation Guide
11g Release 2 (11.2)
Oracle ASM Job Role Separation Option with SYSASM
用grid用户 crs_stop -all停止crs集群服务时,asm的服务无法停止
grid@datacheck02:/home/grid$ crs_stat -t
Name Type Target State Host
------------------------------------------------------------
ora.DATA1.dg ora....up.type OFFLINE OFFLINE
ora.FRA.dg ora....up.type OFFLINE OFFLINE
ora....ER.lsnr ora....er.type OFFLINE OFFLINE
ora....N1.lsnr ora....er.type OFFLINE OFFLINE
ora....VOTE.dg ora....up.type OFFLINE OFFLINE
ora.asm ora.asm.type OFFLINE ONLINE datacheck02
ora.cvu ora.cvu.type OFFLINE OFFLINE
ora....SM1.asm application OFFLINE ONLINE datacheck01
ora....01.lsnr application OFFLINE OFFLINE
ora....k01.gsd application OFFLINE OFFLINE
ora....k01.ons application OFFLINE OFFLINE
ora....k01.vip ora....t1.type OFFLINE OFFLINE
ora....SM2.asm application OFFLINE ONLINE datacheck02
ora....02.lsnr application OFFLINE OFFLINE
ora....k02.gsd application OFFLINE OFFLINE
ora....k02.ons application OFFLINE OFFLINE
ora....k02.vip ora....t1.type OFFLINE OFFLINE
ora.gsd ora.gsd.type OFFLINE OFFLINE
ora....network ora....rk.type OFFLINE OFFLINE
ora.oc4j ora.oc4j.type OFFLINE OFFLINE
ora.ons ora.ons.type OFFLINE OFFLINE
ora....ry.acfs ora....fs.type OFFLINE OFFLINE
ora.scan1.vip ora....ip.type OFFLINE OFFLINE
ora.sjjh.db ora....se.type OFFLINE OFFLINE
增加redolog组
alter database add logfile thread 1 group 5('+DATA1','+FRA') size 1024m;
alter database add logfile thread 2 group 6('+DATA1','+FRA') size 1024m;
alter system set audit_trail=none scope=spfile;
alter system set sga_max_size=20480m scope=spfile;
alter system set pga_aggregate_target=5120m scope=spfile;
alter system set memory_max_target=40960m scope=spfile;
1、停止两节点数据库
2、用rman复制控制文件
restore controlfile to '+DATA1' from '+DATA1/sjjh/controlfile/current.260.842459723';
startup nomount
在节点1执行
alter system set control_files='+DATA1/sjjh/controlfile/current.260.842459723','+FLASH_AREA/oipdb/controlfile/current.256.836307323','+DATA1/oipdb/controlfile/current.270.836324167' scope=spfile;
alter database open;
create spfile='+DATA1' from pfile;
---根据新创建的spfile创建软连接
mkalias '+DATA1/SJJH/PARAMETERFILE/spfile.271.842545793' '+DATA1/SJJH/spfilesjjh.ora'
create tablespace ANALY_DATA datafile '+DATA1' size 10240m autoextend off;
create tablespace COMP_DATA1 datafile '+DATA1' size 10240m autoextend off;
create tablespace COMP_DATA2 datafile '+DATA1' size 10240m autoextend off;
create user dbsweetadm identified by "dbsweetadm" default tablespace ANALY_DATA;
create user analysecyc identified by "Abcd1234!" default tablespace COMP_DATA1;
create user bsndemo identified by "Abcd1234!" default tablespace COMP_DATA2;
grant connect,resource to dbsweetadm,analysecyc,bsndemo;
service oracleasm createdisk VOL7 /dev/sdd1
service oracleasm createdisk VOL8 /dev/sdd2
select group_number gno,name,state,type,total_mb,free_mb,
required_mirror_free_mb rmfmb,usable_file_mb ufmb
from v$asm_diskgroup;
create diskgroup DATA2 external redundancy disk 'ORCL:VOL7';
create diskgroup DATA3 external redundancy disk 'ORCL:VOL8';
sqlplus "/as sysdba" <<!
select sysdate from dual;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS1 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace UNDOTBS2 add datafile '+DATA2' size 10240m autoextend off;
alter tablespace TEMP add tempfile '+DATA2' size 10240m autoextend off;
alter tablespace TEMP add tempfile '+DATA2' size 10240m autoextend off;
alter tablespace TEMP add tempfile '+DATA2' size 10240m autoextend off;
select sysdate from dual;
exit
!