部署规划
11.113.208.213 GFS01
11.113.208.238 GFS02
11.113.208.95 GFS03
安装
安装包 glusterfs 9.5
内包含安装脚本
gfs_install.sh
systemctl status glusterd
配置集群
#在11.113.208.213上执行以下命令,将另外两个节点加入集群里
gluster peer probe 11.113.208.95
gluster peer probe 11.113.208.238
如果不成功 尝试关闭防火墙
systemctl stop firewalld
systemctl status firewalld
gluster peer detach 192.168.25.128
gluster peer status #查看集群状态
配置共享卷
根据实际情况,如果有独立的数据盘,可以弄一个独立的数据盘,挂载/data目录下
三台服务器都建了/data目录
只需要在一台服务器执行
创建分布式卷
!!! 注意! 要额外弄数据盘,做共享卷,放根目录下会报各种错
新加磁盘 每块20G
vgcreate vg_gfs /dev/sdb
lvcreate -n lv_gfs_data -l 100%FREE vg_gfs
mkfs.xfs /dev/vg_gfs/lv_gfs_data
mount /dev/vg_gfs/lv_gfs_data /data1
gluster volume create demo-data replica 3 \
11.113.208.213:/data/demo-data \
11.113.208.238:/data/demo-data \
11.113.208.95:/data/demo-data \
force
启动刚刚创建的名为demo-data 的分布式卷
gluster volume start demo-data force
查看分布式卷的信息
gluster volume info
可以看到状态已经由Create变成了Started
常用卷管理命令
gluster volume stop demo-data 停
gluster volume delete demo-data 删
gluster volume status 查
gluster volume create new-demo-volume replica 3 192.168.25.128:/data1/new-demo-volume 192.168.25.130:/data1/new-demo-volume
gluster volume start new-demo-volume
报错:在根分区建会报错
gluster volume create new-demo-volume replica 3 11.113.208.213:/data/new-demo-volume 11.113.208.238:/data/new-demo-volume 11.113.208.95:/data/new-demo-volume
volume create: new-demo-volume: failed: The brick 11.113.208.95:/data/new-demo-volume is being created in the root partition. It is recommended that you don’t use the system’s root partition for storage backend. Or use ‘force’ at the end of the command if you want to override this behavior.
客户端
配置客户端使用共享卷
客户端安装gfs-client
可以把安装服务端的脚本 最下面那两个服务端的包注销掉 执行脚本
需要额外装这个,不然mount的时候报错
mount.glusterfs 192.168.25.128:/new-demo-volume /data 挂载