部署GPS分布式文件系统

1. GlusterFS概述

1.1 GlusterFS简介

  1. 开源的分布式文件系统
  2. 有存储服务器,客户段以及NFS/Samba存储网关组成
  3. 无元数据服务器

1.2 GlusterFS特点

  1. 扩展性和高性能
  2. 高可用性
  3. 全局统一命名空间
  4. 弹性卷管理
  5. 基于标准协议

1.3 GlusterFS术语

1. Brick      ###存储目录是Glusterfs的基本存储单元
2. Volume    ###卷是存储目录的逻辑组合
3. FUSE       ####内核模块
4. VFS      ### 文件系统
5. Glusterd    ###集群

1.4 工作原理

1.4.1 工作流程

  1. 客户端或应用程序通过GlusterFS的挂载点访问数据
  2. linux系统内核通过VFS API收到请求并处理
  3. VFS将数据递交给FUSE内核文件系统,fuse文件系统则是将数据通过/dev/fuse设备文件递交给了GlusterFS client端
  4. GlusterFS client收到数据后,client根据配置文件的配置对数据进行处理
  5. 通过网络将数据传递至远端的GlusterFS Server,并且将数据写入到服务器存储设备上
    在这里插入图片描述

1.4.2 弹性HASH算法

  1. 通过HASH算法得到一个32位的整数
  2. 划分为N个连续的子空间,每个空间对应一个Brick(存储块)
  3. 弹性HASH算法的优点
    ◆ 保证数据平均分布在每一个Brick中
    ◆解决了对元数据服务器的依赖,进而解决了单点故障以及访问瓶颈

2. GlusterFS的卷类型

  1. 分布式卷
  2. 条带卷
  3. 复制卷
  4. 分布式条带卷
  5. 分布式复制卷
  6. 条带复制卷
  7. 分布式条带复制卷

2.1 分布式卷

  1. 分布式卷简介
    没有对文件进行分块处理

    通过扩展文件属性保存HASH值

    支持的底层文件系统有EXT3、EXT4、ZFS、XFS等

  2. 分布式卷的特点
    文件分布在不同的服务器,不具备冗余性

    更容易和廉价地扩展卷的大小

    单点故障会造成数据丢失

    依赖底层的数据保护

  3. 创建分布式卷

gluster volume create dis-volume server1:/dir1 server2:/dir2server3:/dir3

2.2 条带卷

  1. 条带卷简介
    根据偏移量将文件分成N块(N个条带节点),轮询的存储在每个Brick Server节点

    存储大文件时,性能尤为突出

    不具备冗余性,类似Raid0

  2. 条带卷优点
    数据被分割成更小块分布到块服务器群中的不同条带区

    分布减少了负载且更小的文件加速了存取的速度

    没有数据冗余
    3. 创建条带卷

 gluster volume create stripe-volume stripe 2 transport tcp server1:/dir1 server2:/dir2

2.3 复制卷

  1. 复制卷简介

    同一文件保存一份或多分副本

    因为要保存副本,所以磁盘利用率较低
    若多个节点上的存储空间不一致,将按照木桶效应取最低节点的容量作为该卷的总容量
    2.创建复制卷

gluster volume create rep-volume replica 2 transport tcp server1:/dir1 server2:/dir2

2.4 分布式条带卷

  1. 分布式条带卷简介
    兼顾分布式卷和条带卷的功能

    主要用于大文件访问处理

    至少最少需要4台服务器

2.创建分布式条带卷

gluster volume create dis-stripe stripe 2 transport tcp server1:/dir1 server2:/dir2 server3:/dir3 server4:/dir4

2.5 分布式条带卷

  1. 分布式复制卷
    兼顾分布式卷和复制卷的功能

    用于需要冗余的情况

  2. 创建分布式复制卷

gluster volume create dis-rep replica 2 transport tcp server1:/dir1 server2;ldir2 server3:/dir3 server4:/dir4

3. GlusterFS部署步骤

3.1 群集环境

五台服务器
四台服务器端,一台客户段

在这里插入图片描述

3.2 操作流程

  1. 部署环境
准备环境

关闭防火墙和Selinux

配置hosts文件

安装软件

启动GlusterFS

添加节点

查看集群状态
  1. 创建卷
创建分布式卷

创建条带卷

创建复制卷

创建分布式条带卷

创建分布式复制卷
  1. 部署Glister客户端
安装客户端软件

创建挂载目录

修改hosts文件

挂载Gluster文件系统

修改fstab配置文件
  1. 测试Gluster文件系统
卷中写入文件
查看文件分布
破坏性测试 

其他的维护命令 
查看GlusterFS卷
停止/删除卷
设置卷的访问控制

4. 实验

4.1 准备工作

准备5台虚拟机,给四台服务器加装四个硬盘,然后重启虚拟机
node1:20.0.0.20
node2:20.0.0.21
node3:20.0.0.12
node4:20.0.0.26
客户端:20.0.0.22
分别给四台服务器设置自己的主机名,对应上面

 [root@localhost ~]# hostnamectl set-hostname +主机名  
       #####五台虚拟机都需要做的操作######
[root@node1 ~]# systemctl stop firewalld         ###关闭防火墙
[root@node1 ~]# systemctl disable firewalld    ###关闭自启动
[root@node1 ~]# setenforce ?  ##查看内核状态
setenforce: SELinux is disabled   
[root@node1 ~]# setenforce 0 ##临时关闭内核
[root@node1 ~]# vim /etc/selinux/config         ###进配置文件更改内核
SELINUX=disabled        ###设置成disabled,一共三种模式。


        ########内核的三种状态######
#enforcing - 强制模式,代表selinux在运行中,且已经开始显示domain/type之间的验证关系
#permissive - 宽容模式,代表selninux在运行中,不过不会限制domain/type之间的验证关系,即使验证不正确,进程仍可对文件进行操作,不过如果验证不正确会发出警告
#disabled - 关闭模式,selinux并没有实际运行

#######五台虚拟机都做一下映射###
 [root@node1 ~]#vi /etc/hosts   ###做映射  
20.0.0.12 node3
20.0.0.20 node1
20.0.0.21 node2
20.0.0.26 node4


测试一下:
[root@node1 ~]# ping node2
PING node2 (20.0.0.21) 56(84) bytes of data.
64 bytes from node2 (20.0.0.21): icmp_seq=1 ttl=64 time=0.423 ms

[root@node1 ~]# ping node3
PING node3 (20.0.0.12) 56(84) bytes of data.
64 bytes from node3 (20.0.0.12): icmp_seq=1 ttl=64 time=0.573 ms

[root@node1 ~]# ping node4
PING node4 (20.0.0.26) 56(84) bytes of data.
64 bytes from node4 (20.0.0.26): icmp_seq=1 ttl=64 time=0.501 ms
64 bytes from node4 (20.0.0.26): icmp_seq=2 ttl=64 time=0.420 ms

4.2 格式化磁盘脚本

#!/bin/bash
echo "the disks exist list:"
fdisk -l |grep '磁盘 /dev/sd[a-z]'
echo "=========================================="
PS3="chose which disk you want to create:"
select VAR in `ls /dev/sd* |grep -o 'sd[b-z]'|uniq` quit
do
    case $VAR in
    sda)
        fdisk -l /dev/sda
        break ;;
    sd[b-z])
        #create partitions
        echo "n
        p


        w" | fdisk /dev/$VAR   ##创建磁盘
        #make filesystem
        mkfs.xfs -i size=512 /dev/${VAR}"1" &> /dev/null   ###格式化磁盘
        #mount the systeml
        mkdir -p /data/${VAR}"1" &>/dev/null
        echo -e "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0\n" >> /etc/fstab   ##永久挂载
        mount -a &> /dev/null
        break ;;
    quit)
        break;;
    *)
        echo "wrong disk,please check again";;
    esac
done

[root@node1 ~]#chmod +x jj.sh   ###给脚本一个执行权限
[root@node1 ~]#./jj.sh ##执行脚本
the disks exist list:
==========================================
1) sdb
2) sdc
3) sdd
4) sde
5) quit
chose which disk you want to create:1 #选择要操作的磁盘
Welcome to fdisk (util-linux 2.23.2).
Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.
Command (m for help): Partition type:
   p   primary (1 primary, 0 extended, 3 free)
   e   extended
Select (default p): Partition number (2-4, default 2): No free sectors available
Command (m for help): Command (m for help): Command (m for help): The partition table has been altered!
Calling ioctl() to re-read partition table.
WARNING: Re-reading the partition table failed with error 16: Device or resource busy.
The kernel still uses the old table. The new table will be used at
the next reboot or after you run partprobe(8) or kpartx(8)
Syncing disks.
这样一个简单的格式化磁盘就可以了
[root@node3 ~]# df -Th   ##查看一下挂载情况
Filesystem              Type      Size  Used Avail Use% Mounted on
/dev/mapper/centos-root xfs       291G  4.0G  287G   2% /
devtmpfs                devtmpfs  1.9G     0  1.9G   0% /dev
tmpfs                   tmpfs     1.9G     0  1.9G   0% /dev/shm
tmpfs                   tmpfs     1.9G   13M  1.9G   1% /run
tmpfs                   tmpfs     1.9G     0  1.9G   0% /sys/fs/cgroup
/dev/sda1               xfs      1014M  179M  836M  18% /boot
tmpfs                   tmpfs     378M   12K  378M   1% /run/user/42
tmpfs                   tmpfs     378M     0  378M   0% /run/user/0
/dev/sdb1               xfs        20G   33M   20G   1% /data/sdb1
/dev/sdc1               xfs        20G   33M   20G   1% /data/sdc1
/dev/sdd1               xfs        20G   33M   20G   1% /data/sdd1
/dev/sde1               xfs        20G   33M   20G   1% /data/sde1

如果想要给其他的服务器执行这个脚本,可以通过远程共享

[root@localhost ~]# scp disk.sh root@主机IP:/root 
例子:
[root@node1 ~]# scp jj.sh root@20.0.0.26:/root
The authenticity of host '20.0.0.26 (20.0.0.26)' can't be established.
ECDSA key fingerprint is SHA256:dKSUxLFFpj/mya09acr0sY4Om4Vduq8KLV+erpSUoyA.
ECDSA key fingerprint is MD5:ff:24:02:63:c6:c7:77:6c:2d:95:e8:5b:11:6b:62:12.
Are you sure you want to continue connecting (yes/no)? ###输入yes
ot@20.0.0.26's password: ###输入密码
                                                                 jj.sh     100%  776   510.3KB/s
                                                                 
然后重复上面的脚本操作

4.3 共享目录

选在需要共享的目录,右击属性,跟着下面图操作
在这里插入图片描述
在这里插入图片描述
打开本地策略
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述打开网络中心
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

4.4 建立连接

虚拟机挂载共享目录

  ######五台虚拟机操作一样####
  [root@localhost ~]# smbclient -L //192.168.100.2/  ##查看一下共享目录
Enter SAMBA\root's password: 
               Sharename       Type      Comment
 ---------       ----      -------
 ADMIN$          Disk      远程管理
 C$              Disk      默认共享
 D$              Disk      默认共享
 E$              Disk      默认共享
 F$              Disk      默认共享
 chen          Disk      
 IPC$            IPC       远程 IPC
 Users           Disk      
Reconnecting with SMB1 for workgroup listing.
Connection to 192.168.100.2 failed (Error NT_STATUS_RESOURCE_NAME_NOT_FOUND)
Failed to connect with SMB1 -- no workgroup availabl


[root@node1 ~]# mkdir /chen   ###创建挂载目录
[root@node1 ~]# mount.cifs //192.168.10.2/gfsrepo  /chen     ###挂载

布置yum本地源

#########五台虚拟机一样########
root@node1 chen]# cd /etc/yum.repos.d/                     ###进入到etc/yum.repos.d/ 目录里
[root@node1 yum.repos.d]# mkdir  bac                 ###创建一个bac目录
[root@node1 yum.repos.d]# mv CentOs-*   bac/   ###把CentOs放到backup目录里
[root@node1 yum.repos.d]# vim glfs.repo
[GLFS]
name=glfs
baseurl=file:///chen        ###本地源 http://mirror.centos.org/centos/$releasever/storage/$basearch/gluster-3.12/  ###现网源
gpgcheck=0
enabled=1
[root@node1 yum.repos.d]# yum clean all         ###清除缓存
[root@node1 yum.repos.d]# yum list                 ###重新加载

4.5 部署glusterfs

#####服务器需要安装####
[root@node1 ~]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma

[root@node1 yum.repos.d]# systemctl start glusterd.service    ###启动服务
[root@node1 yum.repos.d]# systemctl enable glusterd             ###开机自启
[root@node1 yum.repos.d]# systemctl status  glusterd             ###查看状态
[root@node1 yum.repos.d]# ntpdate ntp1.aliyun.com ##时间同步

添加信任储存池子,只需要在一台服务器上做就可以了

[root@node1 yum.repos.d]# gluster peer probe node3
peer probe: success. 
[root@node1 yum.repos.d]# gluster peer probe node4
peer probe: success. 
[root@node1 yum.repos.d]# gluster peer probe node2
peer probe: success. 

[root@node1 yum.repos.d]# gluster peer status  ##查看池子状态
Number of Peers: 3

Hostname: node2
Uuid: 63f568a6-9f1a-47f7-8667-0893186ef99e
State: Peer in Cluster (Connected)

Hostname: node3
Uuid: b69de245-b692-46bc-8848-8db471f304b8
State: Peer in Cluster (Connected)

Hostname: node4
Uuid: 9f0decde-ba47-4537-a0f0-50464962d182
State: Peer in Cluster (Connected)

分布式卷

[root@node4 yum.repos.d]# gluster volume create dis-vol node1:/data/sdb1 node2:/data/sdb1 force  ###创建分布式卷,卷名叫dis-vol,用了node1:/data/sdb1和node2:/data/sdb1 

[root@node4 yum.repos.d]# gluster volume info dis-vol    ###查看详细信息和状态
Volume Name: dis-vol          ###名称
Type: Distribute                     ###分布式卷的类型
Volume ID: 5b75e4bd-d830-4e3f-9714-456261c276be  ###id,独一无二的
Status: Created                      ###Created(创建)状态不能使用
Snapshot Count: 0        
Xlator 1: BD
Capability 1: thin
Capability 2: offload_copy
Capability 3: offload_snapshot
Number of Bricks: 2               ###两个块组成
Transport-type: tcp                ###tcp协议
Bricks:
Brick1: node1:/data/sdb1      ###node1的sdb1
Brick1 VG: 
Brick2: node2:/data/sdb1      ###node2的sbd1
Brick2 VG: 
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
 
[root@node4 yum.repos.d]# gluster volume start dis-vol      ###开启
[root@node4 yum.repos.d]# gluster volume info dis-vol       ###再用这条查看状态就是Started

条带卷

[root@node4 yum.repos.d]# gluster volume create stripe-vol stripe 2 node1:/data/sdc1 node2:/data/sdc1 force   ##创建条带卷
[root@node4 yum.repos.d]# gluster volume start stripe-vol    ###开启条带卷

复制卷

[root@node4 yum.repos.d]# gluster volume create rep-vol replica 2 node3:/data/sdb1 node4:/data/sdb1 force
yum.repos.d]# gluster volume start rep-vol     ###开启

分布式条带卷

[root@node4 yum.repos.d]# gluster volume create dis-stripe stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 force

[root@node4 yum.repos.d]# gluster volume start dis-stripe     ###开启

分布式复制卷

[root@node4 yum.repos.d]# gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force

[root@node4 yum.repos.d]# gluster volume start  dis-rep     ###开启

查看卷的状态

[root@node4 yum.repos.d]# gluster volume  list  
dis-rep
dis-stripe
dis-vol
rep-vol
stripe-vol

客户段配置

[root@client yum.repos.d]# yum -y install glusterfs glusterfs-fuse  

创建五个挂载目录,并且挂载
ot@client yum.repos.d]# mkdir -p /test/dis         ### 挂载分布式卷
[root@client yum.repos.d]# mount.glusterfs node1:dis-vol /test/dis/

[root@client yum.repos.d]# mkdir -p /test/stripe
[root@client yum.repos.d]# mount.glusterfs node1:stripe-vol /test/stripe/    ### 挂载条带卷

[root@client yum.repos.d]# mkdir -p /test/rep
[root@client yum.repos.d]# mount.glusterfs node1:rep-vol /test/rep/    ### 挂载复制卷

[root@client yum.repos.d]# mkdir -p /test/dis-stripe
[root@client yum.repos.d]# mount.glusterfs node1:dis-stripe /test/dis-stripe/   ### 挂载分布条带卷

[root@client yum.repos.d]# mkdir -p /test/dis-rep
[root@client yum.repos.d]# mount.glusterfs node1:dis-rep /test/dis-rep/    ### 

[root@master ~]# df -Th   ##挂载情况
Filesystem              Type            Size  Used Avail Use% Mounted on
/dev/mapper/centos-root xfs             291G  4.2G  287G   2% /
devtmpfs                devtmpfs        1.9G     0  1.9G   0% /dev
tmpfs                   tmpfs           1.9G     0  1.9G   0% /dev/shm
tmpfs                   tmpfs           1.9G   13M  1.9G   1% /run
tmpfs                   tmpfs           1.9G     0  1.9G   0% /sys/fs/cgroup
/dev/sde1               xfs              20G   33M   20G   1% /data/sde1
/dev/sdd1               xfs              20G   33M   20G   1% /data/sdd1
/dev/sdc1               xfs              20G   33M   20G   1% /data/sdc1
/dev/sdb1               xfs              20G   33M   20G   1% /data/sdb1
/dev/sda1               xfs            1014M  179M  836M  18% /boot
tmpfs                   tmpfs           378M     0  378M   0% /run/user/0
tmpfs                   tmpfs           378M   12K  378M   1% /run/user/42
//192.168.100.2/chen    cifs            477G  395M  477G   1% /root/chen
node1:dis-vol           fuse.glusterfs   40G  265M   40G   1% /test/dis
node1:stripe-vol        fuse.glusterfs   40G  265M   40G   1% /test/stripe
node1:rep-vol           fuse.glusterfs   20G  233M   20G   2% /test/rep
node1:dis-stripe        fuse.glusterfs   80G  330M   80G   1% /test/dis-stripe
node1:dis-rep           fuse.glusterfs   40G  265M   40G   1% /test/dis-rep

4.6 测试

创建5个50M的文件

[root@client yum.repos.d]# dd if=/dev/zero of=/demo1.log bs=1M count=50
[root@client yum.repos.d]# dd if=/dev/zero of=/demo2.log bs=1M count=50
[root@client yum.repos.d]# dd if=/dev/zero of=/demo3.log bs=1M count=50
[root@client yum.repos.d]# dd if=/dev/zero of=/demo4.log bs=1M count=50
[root@client yum.repos.d]# dd if=/dev/zero of=/demo5.log bs=1M count=50

将创建的文件复制到5个共享目录中

[root@client yum.repos.d]# cp /demo* /test/dis
[root@client yum.repos.d]# cp /demo* /test/stripe/
[root@client yum.repos.d]# cp /demo* /test/rep/
[root@client yum.repos.d]# cp /demo* /test/dis-stripe/
[root@client yum.repos.d]# cp /demo* /test/dis-rep/

查看卷命令

[root@node1 yum.repos.d]# ls -h +磁盘
例子
  
   ##########查看分布式卷#########
[root@node1 ~]# ls -lh /data/sdb1/
total 160M
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo1.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo2.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo3.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo4.log

[root@node2 yum.repos.d]# ls -lh /data/sdb1/
total 40M
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo5.log
      
      ######查看条带卷####
[root@node1 ~]# ls -lh /data/sdc1/
total 100M
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo1.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo2.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo3.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo4.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo5.log

[root@node2 ~]# ls -lh /data/sdc1/
total 100M
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo1.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo2.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo3.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo4.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo5.log

      ###查看复制卷###
  [root@node4 ~]# ls -lh /data/sdb1/
total 200M
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo1.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo2.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo3.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo4.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo5.log

[root@node3 ~]# ls -lh /data/sdb1/
total 200M
-rw-r--r-- 2 root root 40M Oct 27 09:29 demo1.log
-rw-r--r-- 2 root root 40M Oct 27 09:29 demo2.log
-rw-r--r-- 2 root root 40M Oct 27 09:29 demo3.log
-rw-r--r-- 2 root root 40M Oct 27 09:29 demo4.log
-rw-r--r-- 2 root root 40M Oct 27 09:29 demo5.log
#####查看分布式条带卷#####
[root@node1 ~]# ls -lh /data/sdd1/
total 80M
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo1.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo2.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo3.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo4.log

[root@node2 ~]# ls -lh /data/sdd1/
total 80M
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo1.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo2.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo3.log
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo4.log

[root@node3 ~]# ls -lh /data/sdd1/
total 20M
-rw-r--r-- 2 root root 20M Oct 27 09:29 demo5.log

[root@node4 ~]# ls -lh /data/sdd1/
total 20M
-rw-r--r-- 2 root root 20M Oct 27 21:29 demo5.log
     
     #######分布式复制卷#####
[root@node1 ~]# ls -lh /data/sde1/
total 160M
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo1.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo2.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo3.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo4.log

[root@node2 ~]# ls -lh /data/sde1/
total 160M
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo1.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo2.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo3.log
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo4.log

[root@node3 ~]# ls -lh /data/sde1/
total 40M
-rw-r--r-- 2 root root 40M Oct 27 09:29 demo5.log

 [root@node4 ~]# ls -lh /data/sde1/
total 40M
-rw-r--r-- 2 root root 40M Oct 27 21:29 demo5.log        

4.7 破坏测试

关闭服务器器一
然后进入客户段

[root@master test]# ll
ls: cannot access stripe: Transport endpoint is not connected
total 16
drwxr-xr-x. 3 root root 4096 Oct 27 21:29 dis
drwxr-xr-x. 3 root root 4096 Oct 27 21:29 dis-rep
drwxr-xr-x. 3 root root 4096 Oct 27 21:29 dis-stripe
drwxr-xr-x. 3 root root 4096 Oct 27 21:29 rep
d?????????? ? ?    ?       ?            ? stripe

可以很直观的看到分布式卷挂掉了
再关闭服务器3

[root@master test]# ll
ls: cannot access stripe: Transport endpoint is not connected
ls: cannot access dis-stripe: Transport endpoint is not connected
total 12
drwxr-xr-x. 3 root root 4096 Oct 27 21:29 dis
drwxr-xr-x. 3 root root 4096 Oct 27 21:29 dis-rep
d?????????? ? ?    ?       ?            ? dis-stripe
drwxr-xr-x. 3 root root 4096 Oct 27 21:29 rep
d?????????? ? ?    ?       ?            ? stripe

分布式和分布式条带卷都挂掉了

注意点:删除卷时,信任池中不能有主机处于拓机状态,否则删除不成功(只有关闭状态才能删除)

4.8 删除卷

[root@node3 yum.repos.d]# gluster volume stop 卷名     ###要先关闭卷
Stopping volume will make its data inaccessible. Do you want to continue? (y/n)  ####填y
volume stop: rep-vol: success

[root@node3 yum.repos.d]# gluster volume delete 卷名  ##删除卷
Deleting volume will erase all information about the volume. Do you want to continue?(y/n)   ###填写y
volume delete: rep-vol: success


## 4.9 访问控制
```bash
[root@node1 yum.repos.d]# gluster volume set dis-vol auth.reject IP地址   ###拒绝IP用户
volume set: success

[root@node1 yum.repos.d]# gluster volume set dis-vol auth.allow IP地址   ##允许IP用户
volume set: success
©️2020 CSDN 皮肤主题: 岁月 设计师:pinMode 返回首页