高可用集群:RHCS<?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" />
RHCS的集群套件
集群基础套件: coresync/openais,CCS(集群配置服务) 同步节点数据 ,CMAN/DLM , Fencing
HA Service Mangement : rgmanager
共享存储 :GFS and CLVM
集群超级工具: iSCSI
fence设备相当于stonith设备,在RHCS里叫做fence
RHCS的两个节点的集群是比较特殊的,quorum将失去意义 要靠quorum disk实现
quorum disk:探测对方是否在一个共享存储上写数据来判断是否正常 解决资源争用
ccs_tool:集群配置系统工具,实现节点配置文件数据的同步
cman_tool :集群管理器
clustat:
clvmd:用在集群中的逻辑卷
clusvcadm:
rgmanager: 定义资源组
RHCS的架构配置:高可用集群
yum groupinstall Clustering即可或者单独安装 :
yum install rgmanager modcluster cluster-cim cluster-snmp ricci(每个节点都需要)
重启ricci : service ricci restart
查看ricci端口为11111
安装luci(服务管理接口需要即要在realserver上安装)
初始化:luci_admin init (会要求输入admin登陆的密码)
重启服务: service luci restart 会显示访问方法
本机测试并进行图形界面配置: https://node1.a.com:8084
节点访问同一个共享存储设备,节点之间可以看到对方的文件 使用集群文件系统,节点要配置成高可用集群
基于RHCS的集群文件系统:
服务端eth0 :192.168.0.190
客户端:node1 eth0 192.168.0.187
node2 eth0 192.168.0.188
node3 eth0 192.168.0.189
服务端配置:安装scsi-target-utils 配置iscsi服务
客户端配置:安装iscsi-initiator-utils 配置iscsi服务可以发现即可
配置RHCS集群:
yum install ricci 节点都需要安装
开启ricci
yum install luci 服务接口管理需要安装192.168.0.187
luci_admin init
service luci restart
图形界面配置RHCS: https://192.168.0.187:8084
cluster--create a new cluster--cluster name(gfs) node hostname node1.a.com.. 点选download和enable shared storge support---view ssl cert--submit 开始安装
客户端查看集群状态:
cman_tool status或者 cluster
ccs_tool lsnode 查看node
ccs_tool -h 查看有哪些命令可用
ccs_test connect
service cman status 查看cman 状态
service rgmanager start 三个节点都要开启
配置节点lvm的都支持集群的形式:clvm
lvmconf --enable-cluster 三个节点都需要
查看grep "locking_type" /etc/lvm/lvm.conf 为3
service clvmd start 超时 #
ps aux | grep clvmd在线
lsmod | grep gfs
ps aux | grep dlm 分布式锁要开启
登陆iscsi的192.168.0.187上配置
iscsiadm -m discovery -t sendtargets -p 192.168.0.190
iscsiadm -m node -T iqn.2011-02.com.a.node1:appdata -p 192.168.0.65 -l
配置集群的fence :图形界面3个节点都需要添加fence设备
cluster list --gsf--nodes--manage fencing for this node---勾选cman rgmanager--add a fence device (gfs_fence)----updata main fence properties
故障转移域配置 :
failover domains--add failover domain--name(gfs)--将3个节点都添加--submit
点选shared fence device可以看到配置信息
配置资源:
recourse--add a resource---type
集群文件查看是否正常vim /etc/cluster/cluster.conf
ccs_tool lsfence
ccs_tool lsnode
service gfs start
service gfs2 restart
service clvmd start
创建lvm:在一个节点上即可
pvcreate /dev/sdb
vgcreate vg0 /dev/sdb
lvcreate -L 5G -n gfsdata vg0
lvdisplay 查看
gfs_mkfs -p lock_dlm -t gfs:gfsdata -j 4 /de/vg0/gfsdata 格式化
在节点上挂载即可
mount -o -t gfs /dev/vg0/gfsdata /mnt
gfs_tool list 查看gfs列表
这样就可以同步节点之间的文件同步了
转载于:https://blog.51cto.com/jingmu/510032