Oracle 11g RAC 禁用网卡测试
一、 环境
rac1:
eth0:192.168.67.101
eth1:192.168.200.101
rac1-vip 192.168.67.103
rac2:
eth0:192.168.67.102
eth1:192.168.200.102
rac2-vip 192.168.67.104
192.168.67.105 rac-scan
2节点IP如下:
可知VIP1和SCAN IP附着在节点1的主网卡上
VIP2附着在节点2的主网卡上
[root@rac1 ~]# ifconfig -a|more
eth0 Link encap:Ethernet HWaddr 00:0C:29:BD:BB:91
inet addr:192.168.67.101 Bcast:192.168.67.255 Mask:255.255.255.0
eth0:1 Link encap:Ethernet HWaddr 00:0C:29:BD:BB:91
inet addr:192.168.67.105 Bcast:192.168.67.255 Mask:255.255.255.0
eth0:3 Link encap:Ethernet HWaddr 00:0C:29:BD:BB:91
inet addr:192.168.67.103 Bcast:192.168.67.255 Mask:255.255.255.0
eth1 Link encap:Ethernet HWaddr 00:0C:29:BD:BB:9B
inet addr:192.168.200.101 Bcast:192.168.200.255 Mask:255.255.255.0
[root@rac2 ~]# ifconfig -a
eth0 Link encap:Ethernet HWaddr 00:0C:29:AB:BF:DB
inet addr:192.168.67.102 Bcast:192.168.67.255 Mask:255.255.255.0
eth0:1 Link encap:Ethernet HWaddr 00:0C:29:AB:BF:DB
inet addr:192.168.67.104 Bcast:192.168.67.255 Mask:255.255.255.0
eth1 Link encap:Ethernet HWaddr 00:0C:29:AB:BF:E5
inet addr:192.168.200.102 Bcast:192.168.200.255 Mask:255.255.255.0
eth1:1 Link encap:Ethernet HWaddr 00:0C:29:AB:BF:E5
inet addr:169.254.200.41 Bcast:169.254.255.255 Mask:255.255.0.0
二、 测试1:禁用主节点主网卡
rac1#:ifconfig eth0 down
观察网卡情况:节点1的VIP和SCAN IP都漂移到节点2的主网卡上
节点1的监听停止,数据库正常运行
[root@rac1 ~]# ifconfig -a|more
eth0 Link encap:Ethernet HWaddr 00:0C:29:BD:BB:91
inet addr:192.168.67.101 Bcast:192.168.67.255 Mask:255.255.255.0
eth1 Link encap:Ethernet HWaddr 00:0C:29:BD:BB:9B
inet addr:192.168.200.101 Bcast:192.168.200.255 Mask:255.255.255.0
eth1:1 Link encap:Ethernet HWaddr 00:0C:29:BD:BB:9B
inet addr:169.254.167.214 Bcast:169.254.255.255 Mask:255.255.0.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
Base address:0x2440 Memory:c9080000-c90a0000
[root@rac2 ~]# ifconfig -a|more
eth0 Link encap:Ethernet HWaddr 00:0C:29:AB:BF:DB
inet addr:192.168.67.102 Bcast:192.168.67.255 Mask:255.255.255.0
eth0:1 Link encap:Ethernet HWaddr 00:0C:29:AB:BF:DB
inet addr:192.168.67.104 Bcast:192.168.67.255 Mask:255.255.255.0
eth0:2 Link encap:Ethernet HWaddr 00:0C:29:AB:BF:DB
inet addr:192.168.67.103 Bcast:192.168.67.255 Mask:255.255.255.0
eth0:3 Link encap:Ethernet HWaddr 00:0C:29:AB:BF:DB
inet addr:192.168.67.105 Bcast:192.168.67.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
eth1 Link encap:Ethernet HWaddr 00:0C:29:AB:BF:E5
inet addr:192.168.200.102 Bcast:192.168.200.255 Mask:255.255.255.0
eth1:1 Link encap:Ethernet HWaddr 00:0C:29:AB:BF:E5
inet addr:169.254.200.41 Bcast:169.254.255.255 Mask:255.255.0.0
三、 继续禁用节点2的主网卡
结果:2节点只剩主备本身IP
SCAN 和VIP都关闭,节点1监听关闭,节点2监听继续,2节点数据库正常
四、 继续禁用节点1的备网卡
结果:节点2的数据库被关闭,节点1正常
五、 继续禁用节点2的备网卡
和步骤四结果相同
六、 恢复节点2的备网卡
和步骤四结果相同
七、 恢复节点1的备网卡
和步骤四结果相同
八、 恢复节点1的主网卡
和步骤四结果相同
九、 恢复节点2的主网卡
和步骤四结果相同
所以资源都在节点1上
原因:节点2已经被提出了crs
恢复办法:
1) 重启节点2操作系统
[root@rac2 ~]# shutdown -r now
2) 关闭节点1的crs
rac1#crsctl stop crs
3) crs自动在节点2启动
4) 启动节点1的crs
来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/26217983/viewspace-1461405/,如需转载,请注明出处,否则将追究法律责任。
转载于:http://blog.itpub.net/26217983/viewspace-1461405/