高可用集群:RHCS<?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" />

RHCS的集群套件                                                      

       集群基础套件: coresync/openaisCCS(集群配置服务) 同步节点数据 CMAN/DLM , Fencing

       HA Service Mangement rgmanager

       共享存储 GFS and CLVM

       集群超级工具: iSCSI

       fence设备相当于stonith设备,在RHCS里叫做fence

 

RHCS的两个节点的集群是比较特殊的,quorum将失去意义 要靠quorum disk实现

       quorum disk:探测对方是否在一个共享存储上写数据来判断是否正常 解决资源争用

 

ccs_tool:集群配置系统工具,实现节点配置文件数据的同步

cman_tool :集群管理器

clustat

clvmd:用在集群中的逻辑卷

clusvcadm

rgmanager: 定义资源组

 

RHCS的架构配置:高可用集群

       yum groupinstall Clustering即可或者单独安装                                                    

       yum  install rgmanager  modcluster  cluster-cim   cluster-snmp   ricci(每个节点都需要)

        重启ricci service ricci restart

       查看ricci端口为11111

       安装luci(服务管理接口需要即要在realserver上安装)

       初始化:luci_admin  init (会要求输入admin登陆的密码)

       重启服务: service luci restart  会显示访问方法

       本机测试并进行图形界面配置: https://node1.a.com:8084  

 

节点访问同一个共享存储设备,节点之间可以看到对方的文件 使用集群文件系统,节点要配置成高可用集群

 

基于RHCS的集群文件系统:

       服务端eth0 192.168.0.190

       客户端:node1 eth0 192.168.0.187

              node2 eth0 192.168.0.188

              node3 eth0 192.168.0.189

       服务端配置:安装scsi-target-utils 配置iscsi服务

       客户端配置:安装iscsi-initiator-utils  配置iscsi服务可以发现即可

              配置RHCS集群:

              yum install ricci 节点都需要安装

              开启ricci

              yum install luci 服务接口管理需要安装192.168.0.187

              luci_admin  init

              service luci restart

              图形界面配置RHCS https://192.168.0.187:8084

              cluster--create a new cluster--cluster name(gfs) node hostname node1.a.com.. 点选downloadenable shared                  storge support---view ssl cert--submit 开始安装

              客户端查看集群状态:

              cman_tool status或者 cluster

              ccs_tool lsnode 查看node

              ccs_tool -h 查看有哪些命令可用

              ccs_test connect

              service cman status 查看cman 状态

              service rgmanager start 三个节点都要开启

              配置节点lvm的都支持集群的形式:clvm

              lvmconf --enable-cluster 三个节点都需要

              查看grep "locking_type" /etc/lvm/lvm.conf 3

              service clvmd start 超时 #

              ps aux | grep clvmd在线

              lsmod | grep gfs

              ps aux | grep dlm  分布式锁要开启

              登陆iscsi192.168.0.187上配置

              iscsiadm -m discovery  -t sendtargets -p 192.168.0.190

              iscsiadm  -m node -T  iqn.2011-02.com.a.node1:appdata -p 192.168.0.65 -l

             

              配置集群的fence :图形界面3个节点都需要添加fence设备

              cluster list --gsf--nodes--manage fencing for this node---勾选cman rgmanager--add a fence device                            (gfs_fence)----updata main fence properties

              故障转移域配置

              failover domains--add failover domain--name(gfs)--3个节点都添加--submit

              点选shared fence device可以看到配置信息

              配置资源:

              recourse--add a resource---type

             

              集群文件查看是否正常vim /etc/cluster/cluster.conf

                     ccs_tool lsfence

                     ccs_tool lsnode

                     service gfs start

                     service gfs2 restart

                     service clvmd start

              创建lvm:在一个节点上即可

                     pvcreate /dev/sdb

                     vgcreate vg0 /dev/sdb

                     lvcreate -L 5G -n gfsdata vg0

                     lvdisplay 查看

                     gfs_mkfs -p lock_dlm -t gfs:gfsdata -j 4 /de/vg0/gfsdata  格式化

              在节点上挂载即可

                     mount -o -t gfs  /dev/vg0/gfsdata /mnt

                     gfs_tool list 查看gfs列表

这样就可以同步节点之间的文件同步了