1. 在/etc/sysconfig/network-scripts 下编辑配置文件
# cp /etc/sysconfig/network-scripts/ifcfg-eth1 ifcfg-bond0
# vi /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
BOOTPROTO=static
ONBOOT=yes
IPADDR=192.168.1.11
NETWORK=192.168.1.0
BROADCAST=192.168.1.255
NETMASK=255.255.255.0
USERCTL=no
BONDING_MASTER=yes
TYPE=Ethernet
2. 修改eth1, eth2配置文件
# vi ifcfg-eth1
DEVICE=eth1
USERCTL=no
ONBOOT=yes
MASTER=bond0
SLAVE=yes
BOOTPROTO=none
TYPE=ethernet
# vi ifcfg-eth2
DEVICE=eth2
USERCTL=no
ONBOOT=yes
MASTER=bond0
SLAVE=yes
BOOTPROTO=none
TYPE=ethernet
3. 将新添加的bond0设备加入modprobe.conf中,以便kernel识别。
#vi /etc/modprobe.conf
alias bond0 bonding
options bond0 mode=1 miimon=100 downdelay=200 primary=eth1 primary_reselect=1
从Linux Kernel增加或删除modules
# modprobe bonding
然后重启网络就可以了
#service nerwork restart
4. 最后设置cluster的一些参数, 使得clusterware使用bond0作为心跳线通信
(每个节点都执行) 。
# cd /u01/product/crs/bin
# ./oifcfg iflist
eth0 10.13.9.0
bond0 192.168.1.0
# ./oifcfg delif
# ./oifcfg setif -global eth0/10.13.9.0
ublic
# ./oifcfg setif -global bond0/192.168.1.0:cluster_interconnect
5. 重新启动RAC 测试。
问题点:
参考其他文档的时候, 比如 http://tech.ddvip.com/2007-11/119605865737942.html , 最后一步有提到 :
/etc/rc.local中加入 modprobe bonding miimon=100 mode=1 ,
还有一些文档是在 rc.local 中加入
ifenslave bond0 eth1 eth2
个人觉得: /etc/modprobe.conf 中既然有设置bonding ..options ....等, 那么数据库在启动的时候就应该加载,
应该不需要rc.local 中再次设置一些类似 modprobe bonding 的命令吧 ??
还有一个帖子 http://www.iteye.com/topic/452896 , 设置了mode = 1 , 即active/ standby模式, 但是后面在
rc.local 中又加入了提供负载均衡的 ifenslave bond0 eth1 eth2 语句 , 不知道啥意思 ??
设置mode = 6 对于网开是有要求的, 具体是啥要求 ?
# cp /etc/sysconfig/network-scripts/ifcfg-eth1 ifcfg-bond0
# vi /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
BOOTPROTO=static
ONBOOT=yes
IPADDR=192.168.1.11
NETWORK=192.168.1.0
BROADCAST=192.168.1.255
NETMASK=255.255.255.0
USERCTL=no
BONDING_MASTER=yes
TYPE=Ethernet
2. 修改eth1, eth2配置文件
# vi ifcfg-eth1
DEVICE=eth1
USERCTL=no
ONBOOT=yes
MASTER=bond0
SLAVE=yes
BOOTPROTO=none
TYPE=ethernet
# vi ifcfg-eth2
DEVICE=eth2
USERCTL=no
ONBOOT=yes
MASTER=bond0
SLAVE=yes
BOOTPROTO=none
TYPE=ethernet
3. 将新添加的bond0设备加入modprobe.conf中,以便kernel识别。
#vi /etc/modprobe.conf
alias bond0 bonding
options bond0 mode=1 miimon=100 downdelay=200 primary=eth1 primary_reselect=1
从Linux Kernel增加或删除modules
# modprobe bonding
然后重启网络就可以了
#service nerwork restart
4. 最后设置cluster的一些参数, 使得clusterware使用bond0作为心跳线通信
(每个节点都执行) 。
# cd /u01/product/crs/bin
# ./oifcfg iflist
eth0 10.13.9.0
bond0 192.168.1.0
# ./oifcfg delif
# ./oifcfg setif -global eth0/10.13.9.0
![13.gif](http://www.itpub.net/images/smilies/13.gif)
# ./oifcfg setif -global bond0/192.168.1.0:cluster_interconnect
5. 重新启动RAC 测试。
问题点:
参考其他文档的时候, 比如 http://tech.ddvip.com/2007-11/119605865737942.html , 最后一步有提到 :
/etc/rc.local中加入 modprobe bonding miimon=100 mode=1 ,
还有一些文档是在 rc.local 中加入
ifenslave bond0 eth1 eth2
个人觉得: /etc/modprobe.conf 中既然有设置bonding ..options ....等, 那么数据库在启动的时候就应该加载,
应该不需要rc.local 中再次设置一些类似 modprobe bonding 的命令吧 ??
还有一个帖子 http://www.iteye.com/topic/452896 , 设置了mode = 1 , 即active/ standby模式, 但是后面在
rc.local 中又加入了提供负载均衡的 ifenslave bond0 eth1 eth2 语句 , 不知道啥意思 ??
设置mode = 6 对于网开是有要求的, 具体是啥要求 ?
来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/35489/viewspace-695821/,如需转载,请注明出处,否则将追究法律责任。
转载于:http://blog.itpub.net/35489/viewspace-695821/