GFS分布式存储

GFS分布式存储

一、GFS概述

GFS:GlusterFS

1.1 GlusterFS简介

  • GlusterFS是一个开源的分布式文件系统。
  • 由存储服务器、客户端以及NFS/Samba存储网关(可选,根据需要选择使用)组成。
  • 没有元数据服务器组件,这有助于提升整个系统的性能、可靠性和稳定性。

MFS(传统的分布式文件系统技术)

  • 传统的分布式文件系统大多通过元服务器来存储元数据,元数据包含存储节点上的目录信息、目录结构等。这样的设计在浏览目录时效率高,但是也存在一些缺陷,例如单点故障。一旦元数据服务器出现故障,即使节点具备再高的冗余性,整个存储系统也将崩溃。

GlusterFS:

  • 而Glusteres分布式文件系统是基于无元服务器的设计,数据横向扩展能力强,具备较高的可靠性及存储效率。(不存在元服务器单点故障的问题)

  • GlusterFS同时也是Scale-Out(横向扩展)存储解决方案Gluster的核心,在存储数据方面具有强大的横向扩展能力,通过扩展能够支持数PB存储容量和处理数千客户端。

  • GlusterFS支持借助 TCP/IP 或 InfiniBandRDMA 网络(一种支持多并发链接的技术,具有高带宽、低时延、高扩展性的特点)将物理分散分布的存储资源汇聚在一起,统一提供存储服务,并使用统一全局命名空间来管理数据。

1.2 GlusterFS特点

  • 扩展性和高性能
    GlusterFS利用双重特性来提供高容量存储解决方案。
    (1)Scale-Out架构允许通过简单地增加存储节点的方式来提高存储容量和性能(磁盘、计算和I/O资源都可以独立增加),支持10GbE和 InfiniBand等高速网络互联。
    (2)Gluster弹性哈希(ElasticHash)解决了GlusterFS对元数据服务器的依赖,改善了单点故障和性能瓶颈,真正实现了并行化数据访问。GlusterFS采用弹性哈希算法在存储池中可以智能地定位任意数据分片(将数据分片存储在不同节点上),不需要查看索引或者向元数据服务器查询。
  • 高可用性
    GlusterFS可以对文件进行自动复制,如镜像或多次复制,从而确保数据总是可以访问,甚至是在硬件故障的情况下也能正常访问。
    当数据出现不一致时,自我修复功能能够把数据恢复到正确的状态,数据的修复是以增量的方式在后台执行,几乎不会产生性能负载。
    GlusterFS可以支持所有的存储,因为它没有设计自己的私有数据文件格式,而是采用操作系统中主流标准的磁盘文件系统(如EXT3、XFS等)来存储文件,因此数据可以使用传统访问磁盘的方式被访问。
  • 全局统一命名空间
    分布式存储中,将所有节点的命名空间整合为统一命名空间,将整个系统的所有节点的存储容量组成一个大的虚拟存储池,供前端主机访问这些节点完成数据读写操作。
  • 弹性卷管理
    GlusterFS通过将数据储存在逻辑卷中,逻辑卷从逻辑存储池进行独立逻辑划分而得到。 逻辑存储池可以在线进行增加和移除不会导致业务中断。逻辑卷可以根据需求在线增长和缩减,并可以在多个节点中实现负载均衡。
    文件系统配置也可以实时在线进行更改并应用,从而可以适应工作负载条件变化或在线性能调优。
  • 基于标准协议
    Gluster 存储服务支持 NFS、CIFS、HTTP、FTP、SMB 及 Gluster原生协议,完全与 POSIX 标准(可移植操作系统接口)兼容。
    现有应用程序不需要做任何修改就可以对Gluster 中的数据进行访问,也可以使用专用 API 进行访问

1.3 GlusterFS术语

  • Brick(存储块):
    指可信主机池中由主机提供的用于物理存储的专用分区,是GlusterFS中的基本存储单元,同时也是可信存储池中服务器上对外提供的存储目录。
    存储目录的格式由服务器和目录的绝对路径构成,表示方法为 SERVER:EXPORT,如 192.168.44.20:/data/mydir/。
  • Volume(逻辑卷):
    一个逻辑卷是一组 Brick 的集合。卷是数据存储的逻辑设备,类似于 LVM 中的逻辑卷。大部分 Gluster 管理操作是在卷上进行的。
  • FUSE:
    是一个内核模块,允许用户创建自己的文件系统,无须修改内核代码。
  • VFS:
    内核空间对用户空间提供的访问磁盘的接口。
  • Glusterd(后台管理进程):
    在存储群集中的每个节点上都要运行。

1.4 模块化堆栈式架构

  • GlusterFS 采用模块化、堆栈式的架构。

  • 通过对模块进行各种组合,即可实现复杂的功能。

1.5 GlusterFS 的工作流程

  1. 客户端或应用程序通过 GlusterFS 的挂载点访问数据。
  2. linux系统内核通过 VFS API 收到请求并处理。
  3. VFS 将数据递交给 FUSE 内核文件系统,并向系统注册一个实际的文件系统 FUSE,而 FUSE 文件系统则是将数据通过 /dev/fuse 设备文件递交给了 GlusterFS client 端。可以将 FUSE 文件系统理解为一个代理。
  4. GlusterFS client 收到数据后,client 根据配置文件的配置对数据进行处理。
  5. 经过 GlusterFS client 处理后,通过网络将数据传递至远端的 GlusterFS Server,并且将数据写入到服务器存储设备上。

在这里插入图片描述

1.6 弹性 HASH 算法

弹性 HASH 算法是 Davies-Meyer 算法的具体实现,通过 HASH 算法可以得到一个 32 位的整数范围的 hash 值,假设逻辑卷中有 N 个存储单位 Brick,则 32 位的整数范围将被划分为 N 个连续的子空间,每个空间对应一个 Brick。
当用户或应用程序访问某一个命名空间时,通过对该命名空间计算 HASH 值,根据该 HASH 值所对应的 32 位整数空间定位数据所在的 Brick。

弹性 HASH 算法的优点:

  • 保证数据平均分布在每一个 Brick 中。
  • 解决了对元数据服务器的依赖,进而解决了单点故障以及访问瓶颈。

二、GlusterFS的卷类型

  1. 分布式卷
  2. 条带卷
  3. 复制卷
  4. 分布式条带卷
  5. 分布式复制卷
  6. 条带复制卷
  7. 分布式条带复制卷

2.1 分布式卷(Distribute volume) 对文件进行存储

只能提高存储容量,不具有容错能力,存储效率并没有提高。

  • 文件通过HASH 算法分布到所有Brick Server上, 这种卷是GlusterFS 的默认卷;以文件为单位根据HASH 算法散列到不同的Brick,其实只是扩大了磁盘空间,如果有一块磁盘损坏,数据也将丢失,属于文件级的RAID0,不具有容错能力。
  • 在该模式下,并没有对文件进行分块处理,文件直接存储在某个Server 节点上。
  • 由于直接使用本地文件系统进行文件存储,所以存取效率并没有提高,反而会因为网络通信的原因而有所降低。
    在这里插入图片描述
    File1 和 File2 存放在Server1, 而File3存放在Server2, 文件都是随机存储,一 个文件(如File1) 要么在Serverl 上,要么在Server2上,不能分块同时存放在Server1和 Server2上。

特点:

  • 文件分布在不同的服务器,不具备冗余性。
  • 更容易和廉价地扩展卷的大小。
  • 单点故障会造成数据丢失。
  • 依赖底层的数据保护。

创建分布式卷

 #创建一个名为dis-volume的分布式卷,文件将根据HASH分布在server1:/dir1、server2:/dir2 和 server3:/dir3中。
 gluster volume create dis-volume server1:/dir1 server2:/dir2 server3:/dir3


2.2 条带卷(Stripe volume)

类似 RAID0,文件被分成数据块并以轮询的方式分布到多个 Brick Server 上,文件存储以数据块为单位,支持大文件存储, 文件越大,读取效率越高,但是不具备冗余性。
在这里插入图片描述
File 被分割为 6 段,1、3、5 放在 Server1,2、4、6 放在 Server2。

特点:

  • 数据被分割成更小块分布到块服务器群中的不同条带区。
  • 分布减少了负载,且更小的文件加速了存取的速度。
  • 没有数据冗余。

创建条带卷

#创建了一个名为stripe-volume的条带卷,文件将被分块轮询的存储在Server1:/dir1和Server2:/dir2两个Brick中。
 gluster volume create stripe-volume stripe 2 transport tcp server1:/dir1 server2:/dir2
 ​
 #注意:分片数量需要是brick的倍数。

2.3 复制卷(Replica volume)

将文件同步到多个 Brick 上,使其具备多个文件副本,属于文件级 RAID 1,具有容错能力。因为数据分散在多个 Brick 中,所以读性能得到很大提升,但写性能下降。
复制卷具备冗余性,即使一个节点损坏,也不影响数据的正常使用。但因为要保存副本,所以磁盘利用率较低。
在这里插入图片描述
File1 同时存在 Server1 和 Server2,File2 也是如此,相当于 Server2 中的文件是 Server1 中文件的副本。

特点:

  • 卷中所有的服务器均保存一个完整的副本。
  • 卷的副本数量可由客户创建的时候决定,但复制数必须等于卷中 Brick 所包含的存储服务器数。
  • 至少由两个块服务器或更多服务器。
  • 具备冗余性。

创建复制卷

 #创建名为rep-volume的复制卷,文件将同时存储两个副本,分别在Server1:/dir1和Server2:/dir2两个Brick中。
 gluster volume create rep-volume replica 2 transport tcp server1:/dir1 server2:/dir2
 ​
 #replica 2 :复制数,一般要等于brick的数量。
 #transport tcp :通过tcp协议进行传输。

分布式条带卷(Distribute Stripe volume)

  • Brick Server 数量是条带数(数据块分布的 Brick 数量)的倍数
  • 兼顾分布式卷和条带卷的功能
  • 主要用于大文件访问处理
  • 至少最少需要4台服务器
    在这里插入图片描述

原理࿱

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
KVM(GFS)分布式存储系统的构建可以通过以下步骤来实现高可用性: 1. 构建GFS集群:首先,需要构建一个GFS集群,这可以通过安装和配置GFS软件来完成。具体的实验过程可以参考引用中的相关内容。 2. 安装KVM虚拟机:在GFS集群节点服务器上,安装和配置KVM虚拟机。这样,可以通过KVM虚拟化技术来创建和管理虚拟机,从而提供更高的灵活性和可靠性。 3. GFS集群节点服务器添加磁盘:在每个GFS集群节点服务器上,添加额外的磁盘用于存储虚拟机的镜像文件和数据。这样,可以实现虚拟机的高可用性和故障恢复能力。 4. KVM宿主机部署成GFS客户端:将KVM宿主机配置为GFS客户端,可以使得虚拟机在不同的宿主机之间进行迁移和故障转移,从而提供高可用性和负载均衡的支持。 5. 验证存储:进行存储验证,确保GFS分布式存储系统在不同节点之间的数据一致性和可靠性。可以通过数据写入和读取测试来验证存储系统的功能和性能。 6. 进行高可用测试:进行高可用性测试,模拟故障情况,验证系统在节点故障或其他异常情况下的自动故障转移和恢复能力。可以参考引用中的OpenStack和libvirt相关内容来实现高可用性的控制和管理。 通过以上步骤,可以构建一个具有高可用性的KVM(GFS)分布式存储系统,提供可靠的虚拟化环境和数据存储服务。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [2.KVM+GFS分布式存储系统构建KVM高可用](https://blog.csdn.net/a3409148395/article/details/128648676)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [KVM+GFS分布式存系统构建KVM高可用](https://download.csdn.net/download/weixin_38579899/14038636)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值