1.共享存储(scisc+nginx+pacemaker+fence)
该项目主要是实现的是资源共享存储,结合nginx的负载均衡,pacemaker的高可用,解决单点故障,实现双机热备,用fence解决脑裂。
2.实验环境的搭建
提前配置好fence
Server1 172.25.254.1 pacemaker
Server2 172.25.254.2 pacemaker
Server3 172.25.254.3 scsi 存储
3.iscsi 存储配置
服务端:(在server3 上执行以下命令)
1. 添加一块虚拟磁盘(vdb),大小自定义
2. 安装iscsi 软件并启动:
(1) # yum install targetcli
(2) # systemctl enable --now target
3. 配置iscsi 存储输出:
(1) targetcli
(2) /> cd /backstores/block/
(3) /backstores/block> create mydisk /dev/vdb
(4) /> cd /iscsi/
(5) /iscsi> create iqn.2020-08.org.westos:storage1
(6) /iscsi> cd iqn.2020-08.org.westos:storage1/tpg1/acls/
(7) /iscsi/iqn.20...ge1/tpg1/acls> create iqn.2020-08.org.westos:client
(8) /iscsi/iqn.20...ge1/tpg1/acls> cd ..
(9) /iscsi/iqn.20...storage1/tpg1> cd luns/
(10) /iscsi/iqn.20...ge1/tpg1/luns> create /backstores/block/mydisk
(11) /iscsi/iqn.20...ge1/tpg1/luns> exit
客户端配置:(在server1 和server2 上执行以下命令)
1. 在两台高可用节点上安装iscsi 客户端软件:
(1) # yum install -y iscsi-initiator-utils
2. 在server1 上配置iscsi:
(1) # iscsiadm -d discovery -t st -p 172.25.254.3
(2) # iscsiadm -m node -l
(3) # ll /dev/sda //此时可以看到客户端会出现一个新硬盘
(4) # fdisk /dev/sda //分区
(5) # mkfs.xfs /dev/sda1 //格式化
3. 在server2 上配置iscsi: (此节点无需对磁盘分区格式化)
(1) # iscsiadm -m discovery -t st -p 172.25.254.3
(2) # iscsiadm -m node -l
4.Pacemaker 高可用配置:
1. 启动集群
(1) # pcs cluster start --all
2. 配置集群资源:
(1) # pcs resource create vip ocf:heartbeat:IPaddr2 ip=172.25.254.100 op monitor
interval=30s
(2) pcs resource create webdata ocf:heartbeat:Filesystem device="/dev/sda1"
directory="/usr/local/nginx/html" fstype=xfs op monitor interval=60s
(3) # pcs resource create website systemd:nginx op monitor interval=60s
(4) # pcs resource group add webserver vip webdata website
(5) # pcs resource defaults resource-stickiness=100 //防止集群节点恢复后资源自动迁移
5.测试结果