- 配置fence设备
为了抑制争抢资源:通过fence这个物理设备将集群连接在一起,保证时刻只有一个集群正常工作
一旦出现争抢资源的现象,主的集群就会通过fence强制重启备的集群,从而使主集群正常工作
server1是一个集群,server2是一个集群,真机是一个fence设备
真机:安装fence软件,生成fence管理的key,然后传给集群
yum search fence 查找安装包
yum install -y fence-virtd.x86_64 fence-virtd-libvirt.x86_64 fence-virtd-multicast.x86_64 安装
fence_virtd -c 初始化fence设备管理,(Interface [virbr0]: br0) 需要修改网卡(因为两个集群是在虚拟机上面做的,虚拟网卡是通过真实的网卡br0来工作)
mkdir /etc/cluster/
cd /etc/cluster/
dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=128 count=1 生成fence管理的密钥
scp fence_xvm.key root@172.25.38.1:/etc/cluster/ 将生成的密钥发送给server1和server2
scp fence_xvm.key root@172.25.38.2:/etc/cluster/
注意先不要开启fence设备,保证两个集群得到的key一样
浏览器:https:172.25.38.1:8084
开启集群管理工具,进入westos_ha集群,添加Fence Devices,类型为Fence virt(Multicast Mode多模式),name为vmfence(可以随意起)
server1/server2各自创建Fence Devices(Fence virt(Multicast Mode多播模式))、Fence Instance(Domain:写入UUID在虚拟机管理界面复制。如果使用Ip,若ip冲突的话,直接关两个)
在两个集群节点的集群配置文件里面看两个集群节点是否关联在fence设备上
cat /etc/cluster/cluster.conf
真机:启动fence服务
systemctl start fence_virtd.service
server1测试:
fence_node server2 server1通过fence强制重启server2
总结:通过fence就可以解决争抢资源的问题,保证客户端有条不紊的访问服务端
- RHCS集群实现高可用服务配置(以http服务为例)
server1和server2安装httpd,编辑默认发布页面
/etc/init.d/httpd status 查看状态
浏览器:
Failover Domains (设置失败回切域—>一个节点出现故障时切换到正常的那一个上)
–>Add–> name &设置两个节点的优先级(数字越小优先级越高)
资源及资源组的添加:
Resources (添加建立的失败回切域中需要的资源:通过vip调用真实的节点)
–>Add–> Script (添加脚本资源/etc/init.d/httpd)& IP Address (添加集群外的VIP资源172.25.29.100)
Service Groups(添加服务组,在该服务组中添加资源)
–>Add --> Add Resource(添加资源选择httpd) --> Add Child Resource(再添加资源选择VIP)–> Submit
在图形界面资源组提交以后,会自动开启服务,因为server1优先级高,所以httpd会运行在server1上,并且获得vip
当server1上httpd服务停掉,服务会转移到server2上,并且vip同样转移到server2上
真机测试:curl 172.25.29.100
echo c > /proc/sysrq-trigger,破坏server1的内核
server1 关闭 vip漂移到server2
server1重新启动,vip漂移回server1