ricci luci mysql_集群 Ricci&&luci   Fence机制

一 Ricci&&luci

Server1和server4做同样的操作,

(1)配置yum源

[HighAvailability]

name=HighAvailability

baseurl=http://172.25.21.250/rhel6.5/HighAvailability

gpgcheck=0

[LoadBalancer]

name=LoadBalancer

baseurl=http://172.25.21.250/rhel6.5/LoadBalancer

gpgcheck=0

[ResilientStorage]

name=ResilientStorage

baseurl=http://172.25.21.250/rhel6.5/ResilientStorage

gpgcheck=0

[ScalableFileSystem]

name=ScalableFileSystem

baseurl=http://172.25.21.250/rhel6.5/ScalableFileSystem

gpgcheck=0

参数来源

截图:

cd55c31ed3a7e9b1a85392af8d1e733d.png

(2)安装服务

安装ricci:使用luci配置集群要求在集群节点中安装并运行ricci,使用ricci需要一个密码,您在创建集群时需要为每个集群节点输入该密码。在启动luci前,请确定您集群节点中的IP端口允许任意与luci沟通的节点中的luci服务器到端口

11211的连接。

要使用Conga管理红帽高可用性附加组件,请安装并运行luci,如下:

1.选择托管luci的主机,并在那台计算机中安装luci软件通常是服务器架或者托管luci的数据中心的一台计算机中,但集群计算机也可托管luci。

2.使用service luci start启动luci。例如:

注意:从红帽企业版Linux 6.1开始,您可以使用/etc/sysconfig/luci文件配置luci行为的某

些方面,包括端口和主机参数,

3.在网页浏览器的地址栏中输入cm an服务器的URL,并点击Go(或者相当的按钮)。luci服务器的URL语法为https://luci_server_hostname:luci_server_port。luci_server_port的默认值为8084。

您首次访问luci时,网页浏览器会根据显示的自我签名SSL证书( luci服务器的证书)给出具体提示。确认一个或者多个对话框后,您的网页显示器会显示luci登录页面。

注意

如果15分钟后没有互动,则luci会处于闲置超时而让您退出。

(3)使用luci创建集群包括命名集群、在集群中添加集群节点、为每个节点输入ricci密码并提交创建集群请求。如果节点信息和密码正确,则Conga会自动在集群节点中安装软件(如果当前没有安装适当的软件包)并启动集群。

注意:

如果缺少任意基本集群组件(cman、rgmanager、modcluster及其所有相依性软件包),无论是选择「使用本地安装的软件包」,还是[下载软件包]选项,都会安装它们。如果没有安装它们,则创建节点会失败.

12  vim /etc/yum.repos.d/rhel-source.repo

13 yum clean all

14 yum repolist查看yum源

16 yum install ricci luci  -y

17 /etc/init.d/ricci start

18 /etc/init.d/luci start

19 passwd ricci ####给ricci加密码

20 chkconfig ricci on  ###开机自启动

21 chkconfig luci on

物理机浏览器:https:172.25.21.1:8084

截图:

“luci Homebase页面”:

0e11be7e4b16cb65420188762837118b.png

按如下步骤创建集群:

截图:

154d2f540bcfcbd8e03cfb1aaa422d61.png

fdad884050d24b08284a84a00f46348e.png

5ac912b22d759480891ff4f59086e5b8.png

查看节点状态,每一项是running表示集群节点正常运行。

e3b3d37a6e2244b2dc5efc72c68f1b25.png

二、Fence机制

当集群其中节点网络出现故障,互相之间无法通信,会以为对方出现故障,从而都会接管资源,此时出现资源争抢。Fence机制是直接将故障节点掉电。防止资源争抢。

物理机;

1.安装软件

#Yum install fence-virtd-0.3.0-16.el7.x86_64

fence-virtd-libvirt-0.3.0-16.el7.x86_64

fence-virtd-multicast-0.3.0-16.el7.x86_64 -y

#rpm -qa | grep fence搜索软件

#Fence_virtd  -c

Module search path [/usr/lib64/fence-virt]:

Listener module [multicast]:

Multicast IP Address [225.0.0.12]:

Multicast IP Port [1229]:

Interface [br0]: br0

Key File [/etc/cluster/fence_xvm.key]:

Backend module [libvirt]:

Replace /etc/fence_virt.conf with the above [y/N]? Y

#dd if=/dev/urandom of =/etc/cluster/fence_xvm.key bs=128 count=1

#Systemctl start fence_virtd

#Systemctl restart fence_virtd

#Systemctl status fence_virtd

#Netstat -anulp |grep :1299

#Scp /etc/cluster/fence_xvm.key root@172.25.21.1:/etc/cluster/

#Scp /etc/cluster/fence_xvm.key root@172.25.21.4:/etc/cluster/

2.进入luci的图形管理界面,添加fence设备,每操作一步,就是向配置文件/etc/cluster/cluster.conf写入

浏览器:http:172.25.21.1:8084

(1)输入:用户名,用户密码

a558c3c2b2271a13f809bcb8f8d05d33.png

(2)添加fence设备图

起个设备名字

61c2de0f7f058b245f984877fa0f154e.png

(3)将server1和server2加入fence设备

图:

727b2455fd0228f6a9b7238663866f2f.png

5f89c9a7925ec737ca53d57da1bc9c2f.png

ecc2488d7105f4280631a3bbda559d5a.png

5fc132012e38e8f6c6f6791eb25ed2d7.png

可在server1和server2输入

Cat /etc/cluster/cluster.conf图

d89eaedb1af135a2f29ce586278a53e4.png

三、集群的故障转移域

1、创建一个故障转移域。Prioritized,设定集群节点优先级;Pestricted,指定在特定的节点上运行服务;No Failback,不回切机制,当故障节点恢复后,集群资源不回切。

###添加故障切换域add failover domain tocluster

图:

e5149190402569ff49e716aa5e1a300c.png

10d3d93189ea3c601f3c7cd58b4ef1cd.png

###配置全局集群资源:resources图

caaee33d923071ee63b702e8818630d0.png

2d2fc7a8a56496a7f68476d6be9fd01f.png

f7acfe6b56f239c5def8e8e9e9facc42.png

##资源组service groups图

26e425f2abc447db9bca093278ec966c.png

可在server1和server4输入

Clustat

Clustat命令可以查看集群状态,以及服务正在server1的节点上运行。

图:

1f91b774f9539be21ea7978568459cc4.png

测试:

server1的优先级高,client访问VIP时,server1接管集群资源,所以client访问到的是server1的httpd服务。

当停掉server1的httpd服务,集群健康检查,server4接管集群资源,此时访问VIP,server2接管。

让server4内核崩溃,server4会被fence,server1接管集群资源。

[root@server4 ~]# echo c >/proc/sysrq-trigger

四基于高可用(HA)集群的apache+target服务配置。

集群共享文件系统apache+target

Server2管理端:首先给server2添加一块8G的硬盘

3d902507347aeea9f351e3df1e33c999.png

1.安装tgtd服务。

Server2:

Yum install -y scsi-* -y

2.修改tgtd的配置文件/etc/tgt/targets.conf,用fdisk -l命令查看磁盘是vda还是sda。我的是vda,所以将vdb磁盘添加为scsi磁盘。启动tgtd服务

Vim /etc/tgt/tartgets.conf

backing-store /dev/vdb

initiator-address  172.25.21.1

initiator-address  172.25.21.4

/etc/init.d/tgtd start

Tgt -admin -s 查看磁盘状态

bcdd49c619311e1b777be2c1eec25e0c.png

Ps ax

3cd8152668eb06aabc8227e64df3b62d.png

3.Server1和Server4安装iscsi

Yum install -y iscsi-* -y

iscsiadm -m discovery -t st -p 172.25.21.2

iscsiadm -m node -l

Fdisk -l

fdisk -cu /dev/sda

图:

352e25cdc8594648e7da2f5dd80d6bd0.png

Vim /etc/lvm/lvm.conf

图:

1faf7091b99a2c89fd67e107b692951e.png

PS:locking_type = 1的话,可以用 lvmconf --enable-cluster命令修改。

lvmconf --enable-cluster

pvcreate /dev/sda1

pvs

vgcreate clusttervg /dev/sda1

vgs

lvcreate -L +2G -n demo clusttervg

lvs

89610f8ee6d6f56008bf83fb8ae38873.png

Server4

Yum install -y iscsi-* -y

iscsiadm -m discovery -t st -p 172.25.21.2

iscsiadm -m node -l

pvs

Vgs

Lvs

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值