实验操作:搭建 GFS 分布式文件系统-------------------------------------脑瓜篮子生疼

一、GlusterFS 简介:

GFS是一个可扩展的分布式文件系统,用于大型的、分布式的、对大量数据进行访问的应用。它运行于廉价的普通硬件上,并提供容错功能。它可以给大量的用户提供总体性能较高的服务。
在这里插入图片描述
开源的分布式文件系统;
由存储服务器、客户端以及 NFS/Samba 存储网关组成;
在这里插入图片描述

1.1:GlusterFS特点

  • 扩展性和高性能

  • 高可用

  • 全局统一命令空间

  • 弹性卷管理

  • 基于标准协议

1.2:GlusterFS术语

  • Brick:GFS中的存储单元,通过是一个受信存储池中的服务器的一个导出目录。可以通过主机名和目录名来标识,如’SERVER:EXPORT’
  • Volume:卷
  • FUSE:内核文件系统,Filesystem Userspace是一个可加载的内核模块,其支持非特权用户创建自己的文件系统而不需要修改内核代码。通过在用户空间运行文件系统的代码通过FUSE代码与内核进行桥接。
  • VFS:虚拟文件系统
  • Glusterd:Gluster management daemon,要在trusted storage pool中所有的服务器上运行

1.3:模块化堆栈构建

  • 模块化、堆栈式的架构

  • 通过对模块化的组合,实现复杂的功能
    在这里插入图片描述

二:GlusterFS工作原理

2.1:Gluester工作流程

在这里插入图片描述

  • 客户端或应用程序通过GlusterFS的挂载点访问数据
  • linux系统内核通过VFS API收到请求并处理
  • VFS将数据递交给FUSE内核文件系统, fuse文件系统则是将数据通过/dev/fuse设备文件递交给了
  • GlusterFS client端
  • GlusterFS client 收到数据后,client根据配置文件的配置对数据进行处理
  • 通过网络将数据传递至远端的GlusterFS Server,并且将数据写入到服务器存储设备上

2.2:弹性 HASH 算法:

  • (1)通过 HASH 算法得到一个32位的整数;
  • (2)划分为 N 个连接的子空间,每个空间对应一个 Brick;
  • (3)弹性 HASH 算法的优点:
  • (4)保证数据平均分布在每一个 Brick 中;
  • (5)解决了对元数据服务器的依赖,进而解决了单点故障以及服访问瓶颈。
    在这里插入图片描述
    在这里插入图片描述

三:GlusterFS 的卷类型:

3.1:分布式卷

  • (1)没有对文件进行分块处理;
  • (2)通过扩展文件属性保存 HASH值;
  • (3)支持的底层文件系统有 ext3 、ext4 、ZFS 、XFS等

在这里插入图片描述
特点:

  • (1)文件分布在不同的服务器,不具备冗余性;
  • (2)更容易和廉价地扩展卷的大小;
  • (3)单点故障会造成数据丢失;
  • (4)依赖底层的数据保护。

3.11:创建分布式卷

  • 创建一个名为dis-volume的分布式卷,文件将根据HASH分布在
    server1:/dir1、server2:/dir2和server3:/dir3中
#gluster volume create dis-volume server1:/dir1 server2:ldir2
server3:/dir3

3.2:条带卷

  • (1)根据偏移量将文件分为 N 块(N个条带节点),轮询的存储在每个 Brick (2)Server 节点;
  • (3)存储大文件时,性能尤为突出;
  • (4)不具备冗余性,类似 raid0
    在这里插入图片描述
    从多个server中同时读取文件,效率提升

特点:

  • (1)数据被分割成更小块分布到块服务器群中的不同条带区;
  • (2)分布减少了负载且更小的文件加速了存取的速度;
  • (3)没有数据冗余

3.21:创建条带卷

  • 创建了一个名为Stripe-volume的条带卷,文件将被分块轮
    询的存储在Server1:/dir1和Server2:/dir2两个Brick中
#gluster volume create stripe-volume stripe 2 transport tcp server1:/dir1 server2:/dir2

3.3:复制卷

  • (1)同一个文件保存一份或多分副本;

  • (2)复制模式因为要保存副本,所以磁盘利用率较低;

  • (3)多个节点上的存储空间不一致,那么将安装木桶效应取最低节点的容量(4)作为该卷的总容量
    在这里插入图片描述
    特点:

  • (1)卷中所有的服务器均保存一个完整的副本;

  • (2)卷的副本数量可由客户创建的时候决定;

  • (3)至少由两个块服务器或更多服务器;

  • (4)具备容灾性。

3.31:创建复制卷

  • 创建名为rep-volume的复制卷,文件将同时存储两个副本,分别
    在Server1:/dir1和Server2:/dir2两个Brick中
#gluster volume create rep-volume replica 2 transport tcp server1:/dir1 server2:/dir2

3.4:分布式条带卷

分布式条带卷:

  • (1)兼顾分布式和条带卷的功能;
  • (2)主要用于大文件访问处理;
  • (3)至少最少需要 4 台服务器。
    在这里插入图片描述

3.41:创建分布式条带卷

  • 创建了名为dis-stripe的分布式条带卷,配置分布式的条带卷时,卷
    中Brick所包含的存储服务器数必须是条带数的倍数(>=2倍)
#gluster volume create dis-stripe stripe 2 transport tcp server1:/dir1 server2:/dir2 server:/dir3 server4:/dir4

server2:/dir2 server3:/dir3 server4:/dir4
14/25,

3.5:分布式复制卷

  • (1)兼顾分布式卷和复制卷的功能;
  • (2)用于需要冗余的情况下

3.51:创建分布式复制卷

  • 创建名为dis-rep的分布式条带卷,配置分布式复制卷时,卷
    中Brick所包含的存储服务器数必须是条带数的倍数(>=2倍)
# gluster volume create dis-rep replica 2 transport tcp server1:/dir1 server2:
/dir2 server3:/dir3 server4:/dir4

四:GlusterFS部署实操

  • 五台虚拟机:一台作为客户机,另外四台作为节点,每个虚拟机新增4块磁盘(每块磁盘20G)
    在这里插入图片描述
    分别给四个节点服务器添加磁盘

在这里插入图片描述

4.1:配置四台节点服务器

[root@localhost ~]# hostnamectl set-hostname node1
[root@localhost ~]# hostnamectl set-hostname node2
[root@localhost ~]# hostnamectl set-hostname node3
[root@localhost ~]# hostnamectl set-hostname node4

'//重启查看分区情况,四台节点服务器一样操作就不一一列举了'
[root@node1 ~]# fdisk -l

'//关闭所有节点防火墙跟防护功能,否则下面配置查看其他节点服务器会有问题'
[root@node1 ~]# systemctl stop firewalld.service 
[root@node1 ~]# setenforce 0

4.2:修改hosts文件

(当用户在浏览器中输入一个需要登录的网址时,系统会首先自动从Hosts文件中寻找对应的IP地址,一旦找到,系统会立即打开对应网页,如果没有找到,则系统会再将网址提交DNS域名解析服务器进行IP地址的解析。),添加主机名和 IP地址

[root@node2 ~]# vim /etc/hosts
//

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
#下面添加
20.0.0.41 node1
20.0.0.42 node2
20.0.0.43 node3
20.0.0.44 node4

#把node1的hosts文件远程共享给另外三台节点服务器
[root@node1 ~]# scp /etc/hosts root@20.0.0.42:/etc/hosts
...省略信息....
Are you sure you want to continue connecting (yes/no)? yes     '//输入确认'
Warning: Permanently added '20.0.0.42' (ECDSA) to the list of known hosts.
root@20.0.0.42's password:                                     '//输入对方密码'
hosts                                                    100%  222   122.8KB/s   00:00  

#一样操作复制到node3/4节点服务器
[root@node1 ~]# scp /etc/hosts root@20.0.0.43:/etc/hosts
[root@node1 ~]# scp /etc/hosts root@20.0.0.44:/etc/hosts:

#一定要去服务器检查配置文件是否正确

4.3:挂载Gluster文件系统跟修改fstab配置文件

[root@node1 opt]# vim disk.sh
'//编写脚本'


#! /bin/bash
echo "the disks exist list:"
fdisk -l |grep '磁盘 /dev/sd[a-z]'
echo "=================================================="
PS3="chose which disk you want to create:"
select VAR in `ls /dev/sd*|grep -o 'sd[b-z]'|uniq` quit
do
    case $VAR in
    sda)
        fdisk -l /dev/sda
        break ;;
    sd[b-z])
        #create partitions
        echo "n
                p
                


                w"  | fdisk /dev/$VAR

        #make filesystem
        mkfs.xfs -i size=512 /dev/${VAR}"1" &> /dev/null
    #mount the system
        mkdir -p /data/${VAR}"1" &> /dev/null
        echo -e "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0\n" >> /etc/fstab
        mount -a &> /dev/null
        break ;;
    quit)
        break;;
    *)
        echo "wrong disk,please check again";;
    esac
done

'//增加执行脚本'
[root@node1 opt]# chmod +x disk.sh 

'//远程复制脚本到另外三台服务器'
[root@node1 opt]# scp disk.sh root@20.0.0.42:/opt

[root@node1 opt]# scp disk.sh root@20.0.0.43:/opt

[root@node1 opt]# scp disk.sh root@20.0.0.44:/opt

'//执行脚本'
[root@node1 opt]# ./disk.sh 
the disks exist list:
磁盘 /dev/sda:322.1 GB, 322122547200 字节,629145600 个扇区
磁盘 /dev/sdb:21.5 GB, 21474836480 字节,41943040 个扇区
磁盘 /dev/sdc:21.5 GB, 21474836480 字节,41943040 个扇区
磁盘 /dev/sde:21.5 GB, 21474836480 字节,41943040 个扇区
磁盘 /dev/sdd:21.5 GB, 21474836480 字节,41943040 个扇区
===========================================
1) sdb
2) sdc
3) sdd
4) sde
5) quit
chose which disk you want to create:   //挨个输出1-4创建分区


'//查看挂载'
[root@node1 opt]# df -Th
文件系统                类型      容量  已用  可用 已用% 挂载点
....省略信息
/dev/sdc1               xfs        20G   33M   20G    1% /data/sdc1
/dev/sdd1               xfs        20G   33M   20G    1% /data/sdd1
/dev/sde1               xfs        20G   33M   20G    1% /data/s:de1
/dev/sdb1               xfs        20G   33M   20G    1% /data/sdb1

4.4:安装GlusterFS

  • 四个节点相同操作
[root@node1 ~]# wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

#清理yum源
[root@node1 ~]# yum clean all

#获取yum源列表
[root@node1 ~]# yum list

#安装gluster
[root@node1 ~]# yum -y install centos-release-gluster

[root@node1 ~]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma

#启动glusterfs
systemctl start glusterd.service 

#查看状态
[root@node4 opt]# systemctl status :glusterd.service 

4.5:时间同步,每台节点都需要操作

  • 这边必须关闭防火墙
ntpdate ntp1.aliyun.com

4.6:添加加入存储信息池只要一台主机上添加其他节点即可

[root@node1 ~]# gluster peer probe node2
peer probe: success. 
[root@node1 ~]# gluster peer probe node3
peer probe: success. 
[root@node1 ~]# gluster peer probe node4
peer probe: success. 


#查看所有节点
[root@node1 ~]# gluster peer status
Number of Peers: 3

Hostname: node2
Uuid: 61ea3244-2d19-48dc-ab1c-e30bd4e7d01d
State: Peer in Cluster (Connected)

Hostname: node3
Uuid: 134437ba-1bce-4d4a-ab62-689f99796dba
State: Peer in Cluster (Connected)

Hostname: node4
Uuid: 72b81ad1-0428-4488-a146-c8a0d5b466f3
State: Peer in Cluster (Connected)

五:创建各种卷

5.1:创建分布式卷

'//在node4创建  利用node1和node2上的两块磁盘创建;dis-vol为磁盘名;force表示强制'
[root@node4 opt]# gluster volume create dis-vol node1:/data/sdb1 node2:/data/sdb1 forcevolume create: dis-vol: success: please start the volume to access data

#查看卷
[root@node4 opt]# gluster volume list
dis-vol


#启动
[root@node4 opt]# gluster volume start dis-vol 
volume start: dis-vol: success

#查看状态
[root@node4 opt]# gluster volume info dis-vol 
 
Volume Name: dis-vol
Type: Distribute
Volume ID: 351d5534-d3d1-450b-93c5-beac0a39e757
Status: Started
Snapshot Count: 0
Number of Bricks: 2
Transport-type: tcp
Bricks:
Brick1: node1:/data/sdb1
Brick2: node2:/data/sdb1
Options Reconfigured:
transport.address-family: inet
storage.fips-mode-rchecksum: on
nfs.disable: on

#如果不想用可以关闭
[root@node4 opt]# gluster volume stop dis-vol 

#删除卷
[root@node4 opt]# gluster volume delete dis-vol 

  • 客户端配置

  • 关闭防火墙

  • 配置安装GFS源

[root@client ~]# systemctl stop firewalld.service 
[root@client ~]# setenforce 0

1、先下载阿里云yum源:wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

2、清理yum源:yum clean all

3、获取yum源列表:yum list

4、安装:yum -y install centos-release-gluster

5、安装软件包:yum -y install glusterfs glusterfs-fuse  

  • 修改hosts文件
vim /etc/hosts

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
#添加四个节点
20.0.0.41 node1
20.0.0.42 node2
20.0.0.43 node3
20.0.0.44 node4

  • 创建临时挂载点:
[root@client opt]# mkdir -p /test/dis     #递归创建挂载点
[root@client opt]# mount.glusterfs node2:dis-vol /test/dis    #挂载分布式node2是随意 写 只要是地地址池里面的节点都行
[root@node4 opt]# df -Th
文件系统                类型            容量  已用  可用 已用% 挂载点
。。。省略信息
node2:dis-vol           fuse.glusterfs   40G  475M   40G    2% /test/dis
40G:两个空间20G加起来就是40G

  • 测试卷:创建5个40M的文件
dd if=/dev/zero of=/demo1.log bs=1M count=40
dd if=/dev/zero of=/demo2.log bs=1M count=40
dd if=/dev/zero of=/demo3.log bs=1M count=40
dd if=/dev/zero of=/demo4.log bs=1M count=40
dd if=/dev/zero of=/demo5.log bs=1M count=40

#跟目录查看5个文件
[root@client ~]# cd /
[root@client /]# ls
bin        demo2.log  dev   lib    mnt   root  srv  usr
boot       demo3.log  etc   lib64  opt   run   sys  var
demo1.log  demo4.log  home  media  proc  sbin  tmp

  • 创建的5个文件复制到不同的卷上
[root@client /]# cp demo* /test/dis

#查看
[root@client /]# ls /test/dis
demo1.log  demo2.log  demo3.log  demo4.log  demo5.log

//查看多大  每个都40M
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo5.log
[root@client dis]# pwd
/test/dis
[root@client dis]# ll -h
总用量 200M
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo1.log
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo2.log
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo3.log
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo4.log
-rw-r--r--. 1 root root 40M 9月  13 22:45 demo5.log

  • 去node1与node2查看

  • 可以看出每个文件按都是完整的

[root@node1 ~]# cd /data/sdb1
[root@node1 sdb1]# ll -h
总用量 160M
-rw-r--r--. 2 root root 40M 9月  13 22:45 demo1.log
-rw-r--r--. 2 root root 40M 9月  13 22:45 demo2.log
-rw-r--r--. 2 root root 40M 9月  13 22:45 demo3.log
-rw-r--r--. 2 root root 40M 9月  13 22:45 demo4.log

#node2查看一下
[root@node2 opt]# cd /data/sdb1
[root@node2 sdb1]# ll -h
总用量 40M
-rw-r--r--. 2 root root 40M 9月  13 22:45 demo5.log

5.2:创建复制卷

[root@node3 opt]# gluster volume create rep-vol replica 2 node3:/data/sdb1 noode4:/data/sdb1 force

#查看卷
[root@node3 opt]# gluster volume list
dis-vol
rep-vol

#启动
[root@node3 opt]# gluster volume start rep-vol

  • 客户端挂载
'//创建挂载点'
[root@client dis]# mkdir /test/rep-vol
//挂载
[root@client dis]# mount.glusterfs node2:rep-vol /test/rep-vol/

#复制到挂载点
[root@client /]# cp demo* /test/rep-vol/

#node3节点查看
[root@node3 sdc1]# cd /data/sdb1
[root@node3 sdb1]# ll -h
总用量 200M
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo1.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo2.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo3.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo4.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo5.log

#node4节点查看 
[root@node4 opt]# cd /data/sdb1
[root@node4 sdb1]# ll -h
总用量 200M
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo1.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo2.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo3.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo4.log
-rw-r--r--. 2 root root 40M 9月  13 23:23 demo5.log

//node3跟node4均保留完整的副本  可靠安全的是复制卷 读写速度快的是条带卷

5.3:创建分布式复制卷

[root@node4 ~]# gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force

//开启
gluster volume start dis-stripe
gluster volume info dis-stripe

  • 客户端挂载
[root@client ~]# mkdir /test/dis-rep
[root@client ~]# mount.glusterfs node1:dis-rep /test/dis-rep/

#查看挂载
[root@client ~]# df -Th
文件系统                类型            容量  已用  可用 已用% 挂载点
node1:dis-rep           fuse.glusterfs   40G  475M   40G    2% /test/dis-rep

#复制卷到挂载卷
[root@client /]# cp demo* /test/dis-rep/

#去node1节点查看
[root@node1 ~]# cd /data/sde1
[root@node1 sde1]# ll -h
总用量 160M
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo1.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo2.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo3.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo4.log

#node2节点查看
[root@node2 ~]# cd /data/sde1
[root@node2 sde1]# ll -h
总用量 160M
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo1.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo2.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo3.log
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo4.log

#node3查看
[root@node3 ~]# cd /data/sde1
[root@node3 sde1]# ll -h
总用量 40M
-rw-r--r--. 2 root root 40M 9月  14 09:04 demo5.log

#node4查看
[root@node4 ~]# cd /data/sde1
[root@node4 sde1]# ll -h
总用量 40M
-rw-r--r--.: 2 root root 40M 9月  14 09:04 demo5.log

5.4:破坏测试

  • 关闭node2服务器观察结果
[root@client /]# cd /test/
[root@client test]# ls
dis  dis-rep  rep-vol
[root@client test]# ls dis                    #查看分布卷
demo1.log  demo2.log  demo3.log  demo4.log    //这边缺少deme05.log

[root@client test]# ls dis-rep/                          #查看复制卷
demo1.log  demo2.log  demo3.log  demo4.log  demo5.log    #这边是完整的

[root@client test]# ls rep-vol/
demo1.log  demo2.log  demo3.log  demo4.log  demo5.log   #查看分布式复制卷  也是完整的

5.5:访问控制

//仅拒绝
[root@node1 yum.repos.d]# gluster volume set dis-vol auth.reject 20.0.0.42
volume set: success

//仅允许
[root@node1 yum.repos.d] gluster volume set dis-vol auth.allow 20.0.0.42
volume set: success

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值