RHCS集群luci--ricci

操作环境

linux6.5虚拟机俩台

管理主机:172.25.3.250

被管理主机(172.25.3.1、 172.25.3.2)

3.250用来安装fence服务

3.2用来安装ricci以及luci

3.3用来安装ricci

需要安装ricci和luci
如果yum安装时yum源解析不到,只需要将镜像内的相应目录写入yum源

在这里插入图片描述

在server1(172.25.3.1)

	yum install luci ricci -y

在server2(172.25.3.2)

	yum install ricci -y

安装ricci之后会自动创建用户ricci,在俩台虚拟机分别修改密码。建议修改一致方便记忆。

	passwd ricci

在这里插入图片描述

设置开机自启:

3.1:/etc/init.d/ricci start

     /etc/init.d/luci  start

          chkconfig     ricci  on

          chkconfig     luci    on

在这里插入图片描述

3.2:/etc/init.d/ricci start

		chkconfig     ricci   on  

在这里插入图片描述

在物理机(3.250)安装fence

yum install -y fence-virtd.x86_64 fence-virtd-libvirt.x86_64 fence-virtd_multicast.x86_64

在这里插入图片描述

打开浏览器,输入https://172.25.3.1:8084访问

在这里插入图片描述

使用超级用户root登陆,普通用户登陆没有增删改权限

创建cluster,node name写节点的主机名即可,密码是ricci的用户的密码
点击 create进行添加
在这里插入图片描述

在这里插入图片描述

虚拟机自动关机且,出现以下界面
在这里插入图片描述
安装完成后使用fence_virtd -c 命令使用交互式配置fence文件
然后重起服务

	systemctl restart    restart

fence需要key文件

/etc/cluster/fence_xvm.key需要我们自己建立

	mkdir  /etc/cluster/fence_xvm.key

然后生成key

	dd  if=/dev/urandom  of=/etc//cluster/fence_xvm.key  bs=128   count=1

key生成好后。给每个节点发送到每个节点的/etc/cluster目录下

	scp fence_xvm.key root@172.25.3.1:/etc/cluster
	scp fence_xvm.key root@172.25.3.2:/etc/cluster

登录到集群管理界面上添加fence设备
在这里插入图片描述
每个节点上的cluster。conf文件需要同步所以在每次执行完毕时都需要等待

给每一个节点添加fence
在这里插入图片描述

服务的状态必须都是running

优先级设定

数越小优先级越高
在这里插入图片描述

有了优先级后,优先级高的会第一个接管工作,优先级低的会成为优先级高的的备用节点,当优先级高的失败后优先级低的会接管工作,但是当优先级高的恢复正常后会重新接管工作,优先级低的继续作为备用节点继续等待。

创建apache
在这里插入图片描述

httpd服务不手动启动
实验

当server1节点挂掉以后server2节点会不会接管工作

使用 echo c > /proc/sysrq-trigger 使虚拟机的内核崩溃 server1节点主机可以自己重新启动httpd服务也自动重启。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值