自己整理笔记使用
HAIP
:私有网卡用作两个节点之间的通信,他的健壮性很重要,之前都是通过bonding
这种技术来做私有网卡的冗余,Oracle 11.2.0.2
之后有了HAIP
这种技术,Oracle
提供私有网卡的冗余
[grid@rac01 ~]$ ip a
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:6d:ee:f7 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.1/24 brd 192.168.1.255 scope global eth1
inet 169.254.23.37/16 brd 169.254.255.255 scope global eth1:1
169.254.23.37
这个就是Oracle
自动分配的私有IP
grid
用户执行oifcfg
来查看各个网卡的用途
[grid@rac01 ~]$ oifcfg getif
eth0 10.16.35.0 global public
eth1 192.168.1.0 global cluster_interconnect
[grid@rac01 ~]$ oifcfg iflist -p -n
eth0 10.16.35.0 PRIVATE 255.255.255.0
eth1 192.168.1.0 PRIVATE 255.255.255.0
eth1 169.254.0.0 UNKNOWN 255.255.0.0
下面这些用法在Oracle grid 11.2
被废除了
crsctl check crsd;
crsctl check cssd;
crsctl check evmd;
crsctl debug log;
crsctl set css votedisk;
crsctl start resources;
crsctl stop resources;
Oracle grid 11.2
只要就是用crsctl
和srvctl
两个命令
名字以ora
为前缀命名的实体(包括资源、资源类型、Server pool
)都是通过srvctl
来维护,集群层面的一般通过crsctl维护
crs_stat crs -t 对应的是 crsctl status res -t
crs_start\crs_stop\crs_relocate 对应crsctl start/stop/relocate resource resourcename
注意:Clusterware
所维护的资源,如果资源的名字是以ora.
开头的,这类资源应该用srvctl
来维护,否则就是crsctl
维护
crsctl status resource -t
这个命令看的资源中没有OHAS
栈的daemon
,要想看这部分的daemon
这样做crsctl status res -t -init
grid 11.2
把之前的crs
拆成了ohad
和crsd
10g
的时候启动集群使用crsctl start crs
但是11g
之后crs
被拆分了,crsd
变成了OHAD
上的一个daemon
root执行
crsctl start cluster -all 启动集群
crsctl stop cluster -all 关闭集群
crsctl check cluster -all 检查集群
检查集群状态
crsctl check cluster -all
crsctl stat res -t -init
查看集群的名字
cemutlo -n
检查集群资源
crsctl status res -t
检查集群资源加上了后台重要的daemon
,这个命令要在每个节点上运行
crsctl stat res -t -init
检查节点应用,所谓的应用就是位于操作系统和RAC
实例之间的那些集群元素包括VIP、ONS Daemon、Network Resource
(这个是Grid 11.2
中新增的,用来监控公有网络的)、ONS Daemon、GSD
,对节点应用的操作一般是通过srvctl
命令完成的
srvctl status nodeapps
检查SCAN-IP
地址的配置
srvctl config scan
检查SCANIP
地址的实际分布方式
srvctl status scan
检查SCAN
监听情况
srvctl status scan_listener
查看各自节点VIP
的配置情况
srvctl config vip -n nodename
查看各自节点VIP
的状态
srvctl status vip -n nodename
检查本地监听器状态
srvctl config listener -a
检查asm
实例
srvctl status asm -a
检查磁盘组资源
srvctl status diskgroup -g diskgroupname
检查仲裁磁盘的位置和状态
crsctl query css votedisk
======================RAC的启停======================
grid
执行(检查各个节点的监听情况)
[grid@rac01 ~]$ srvctl status listener -n nodename
禁止所有节点监听自启动
[grid@rac01 ~]$ srvctl disable listener
[grid@rac01 ~]$ srvctl status listener
Listener LISTENER is disabled
Listener LISTENER is running on node(s): rac02,rac01
停止监听
[grid@rac01 ~]$ srvctl stop listener
Listener LISTENER is disabled
Listener LISTENER is not running
禁止数据库自启动
[root@rac01 /u01/app/11.2.0/grid/bin]# ./srvctl disable database -d racdb
关闭数据库
[grid@rac01 ~]$ srvctl stop database -d racdb
[grid@rac01 ~]$ srvctl status database -d racdb
Instance racdb1 is not running on node rac01
Instance racdb2 is not running on node rac02
查看各个节点集群软件是否自启动
[root@rac01 /u01/app/11.2.0/grid/bin]# ./crsctl config crs
CRS-4622: Oracle High Availability Services autostart is enabled.
[root@rac02 /u01/app/11.2.0/grid/bin]# ./crsctl config crs
CRS-4622: Oracle High Availability Services autostart is enabled.
禁止各个节点集群软件自启动
[root@rac01 /u01/app/11.2.0/grid/bin]# ./crsctl disable crs
CRS-4621: Oracle High Availability Services autostart is disabled.
[root@rac02 /u01/app/11.2.0/grid/bin]# ./crsctl disable crs
CRS-4621: Oracle High Availability Services autostart is disabled.
停止所有节点的集群服务
[root@rac02 /u01/app/11.2.0/grid/bin]# ./crsctl stop cluster -all
停止has
(两个节点都执行)
crsctl stop has
启动has
(两个节点都执行)
crsctl start has
启动集群
[root@rac02 /u01/app/11.2.0/grid/bin]# ./crsctl start cluster -all
查看集群状态,这个时候监听和数据库是offline
的
[grid@rac01 ~]$ crsctl status res -t
所有节点把集群软件都配置为开机自启
[root@rac01 /u01/app/11.2.0/grid/bin]# ./crsctl enable crs
[root@rac02 /u01/app/11.2.0/grid/bin]# ./crsctl enable crs
启动数据库
[root@rac02 /u01/app/11.2.0/grid/bin]# ./srvctl enable database -d racdb
[grid@rac02 ~]$ srvctl start database -d racdb
[grid@rac02 ~]$ srvctl status database -d racdb
实例 racdb1 正在节点 rac01 上运行
实例 racdb2 正在节点 rac02 上运行
启动监听
[grid@rac02 ~]$ srvctl enable listener
[grid@rac02 ~]$ srvctl start listener
[grid@rac02 ~]$ srvctl status listener
监听程序 LISTENER 已启用
监听程序 LISTENER 正在节点上运行: rac02,rac01
Linux7
中已经使用chronyd
替代NTP
,19c
前CTSS
只检查NTP
,不检查chronyd
,所以注意CTSS
和chronyd
同时运行,19c CTSS
已检查chronyd
.
检查操作系统中的时间同步服务,chronyd
和NTP
都能检查出来
cluvfy comp clocksync -n all -verbose