初识ceph(分布式文件系统)

一、ceph的由来

     Linux持续不断进军可扩展计算空间,特别是可扩展存储空间。Ceph 最近加入到 Linux 中令人印象深刻的文件系统备选行列,它是一个分布式文件系统,能够在维护 POSIX 兼容性的同时加入了复制和容错功能。

         其命名和UCSC(Ceph 的诞生地)的吉祥物有关,这个吉祥物是 “Sammy”,一个香蕉色的蛞蝓(就是蜗牛<..>),就是头足类中无壳的软体动物。这些有多触角的头足类动物,是对一个分布式文件系统高度并行的形象比喻。

二、ceph简介与发展历程

(1)ceph简介

         Ceph 的初创来自Sage Weil 博士的 PhD 论文,论文 “Ceph: A Scalable, High-Performance Distributed File System”详细的阐述了 Ceph 的设计架构(论文网址:https://www.ssrc.ucsc.edu/Papers/weil-osdi06.pdf)。ceph的特性包括:可靠性的、可扩展的、统一的、分布式的存储系统。ceph可以提供对象存储、块存储、和文件系统3种功能。

(2)ceph的发展历程

三、Ceph的设计目标

          Ceph的设计目标是采用商用硬件来构建大规模的、具有高可用性、高可扩展性、高性能的分布式存储系统。

           商用硬件:一般指标准的x86服务器,相对于专用硬件,性能和可靠性较差,但由于价格相对低廉,可通过集群优势来发

                             挥高性能。

           高可用性:指系统的某个部件失效后,系统依然可以提供正常服务能力;可用设备部件和数据的冗余来提高可用性。

           高可扩展性:系统可灵活的应对集群的伸缩,如任意添加或删除存储节点和存储设备;系统的性能随集群的增加而线性

                                增加。

四、Ceph基本架构图

                                                                                      Ceph基本架构图

    (1)、Ceph核心组件:

                 在Ceph存储中,包含以下几个核心组件,分别是Ceph OSD;Ceph Monitor和Ceph MDS。

                 Ceph OSD:全称是Object Storage Device,主要功能包括存储数据,处理数据的复制、恢复、回补、平衡数据分

                                       布,并将一些相关数据提供给Ceph Monitor,如Ceph OSD心跳等。

                 Ceph Monitor:Ceph的监控器,主要功能是维护整个集群健康状态,提供一致性的决策,包含Monitor map、OSD

                                             map、PG(Placement Group) map和CRUSH map。

                 Ceph MDS:全称是Ceph Metadata server。主要保存的是Ceph文件系统(File system)的元数据。(Ceph的块存

                                       储和对象存储不需要Ceph MDS。Ceph MDS为基于POSIX文件系统的用户提供一些基础命令,如ls,

                                       find等命令)。

    (2)、Ceph功能特性

                 对象存储功能特性:基于LIBRADOS之上,提供当前流行的RESTful协议的网关,并兼容S3和Swift接口,作为对象存

                                                  储,可以对接网盘应用以及HLS流媒体应用等,

                 块存储功能特性:也基于LIBRADOS之上,通过LIBRBD创建一个块设备,通过QEMU/KVM附加到VM上,作为传统的

                                              块设备来用。

                 文件系统存储功能特性:是基于RADOS来实现分布式的文件系统,引入了MDS(Metadata server),主要为兼容

                                                        POSIX文件系统提供元数据,可当做文件系统挂载。

五、Ceph客户端接口

           ceph底层核心是RADOS。

(1)、RBD(块存储)

            RBD是通过librbd库对应用提供块存储,主要面向云平台的虚拟机提供虚拟磁盘,它类似于传统的SAN存储,都提供数据块级别的访问。

(2)、CephFS(文件系统)

             CephFS通过在RADOS基础之上增加MDS(Metadata Server)来提供文件存储。它提供libcephfs库和标准的POSIX文件接口。CephFS类似于传统的NAS存储,通过NFS或者CIFS协议提供文件系统或文件目录服务。

3)、RadosGW(对象存储)

           <1>提供RESTful  Web  API接口  

                  其接口值提供了简单的GET、PUT、DEL等其他接口,对应对象文件的上传、下载、删除、查询等操作。

           <2>采用扁平的数据组织形式

                 

Amazon的S3接口已经成为事实上的对象存储的标准接口,如上图所示,其接口分为3级存储:Account/Bucket/Object(账户/桶/对象)。

六、RADOS

         RADOS是ceph存储系统的基石,是一个可扩展的、稳定的、自我管理的、自我修复的对象存储系统,是ceph存储系统的核心,包括: Monitor模块为整个存储集群提供全局的配置和系统信息;通过CRUSH算法实现对象的寻址过程; 提供数据均衡功能;通过peering过程完成一个PG内存达成数据一致性的过程; 提供克隆和快照功能;实现对象分层存储的功能;实现数据一致性检查工具Scrub。

(1)、Monitor

             Monitor是一个独立部署的daemon进程,可保证自己的高可用。Cluster Map保存了系统的全局信息,包括:

            Monitor  Map:包括集群的fsid;所有Monitor的地址和端口;current epoch

            OSD  Map:所有OSD的列表,和OSD的状态等

            MDS  Map:所有的MDS的列表和状态

(2)、对象存储(指RADOS对象)

            对象是数据存储的基本单元,一般默认4MB大小。

            对象标识(ID),唯一标识一个对象

            对象数据,其在本地文件系统中对应一个文件,对象的数据保存在文件中

            对象的元数据,以键值对的形式,可以保存在文件对应的扩展属性中。RADOS增加了以Leveldb等的本地KV存储系统来保存对象的元数据。

(3)、pool和PG的概念

           pool是一个抽象的存储池。它规定了数据冗余的类型以及对应的副本分布策略

           PG(放置策略组),它是对象的集合,对象的副本都分布在相同的OSD列表上。一个对象只属于一个PG,一个PG对应于放置在其上的OSD列表,一个OSD可分布多个PG

(4)对象寻址过程

         对象寻址过程是指查找对象在集群中分布的位置信息。分两步:

        <1>对象到PG的映射

        <2>PG到OSD列表映射

(5)、数据读写过程

  1.  Cline向该PG所在的主OSD发送写请求
  2.  主OSD接收到写请求后,同时向两个从OSD发送写副本的请求,并同时写入主OSD的本地存储中
  3.  主OSD接收到2个从osd发送写成功的ACK应答,同时确认自己写成功,向客户端返回写成功的ACK应答

(6)、数据均衡

             当集群新添一个OSD存储设备时,整个集群会发生数据的迁移,使得数据分布到均衡。

(7)、Peering

           ceph的peering过程是指一个PG内的所有副本通过PG日志达成数据一致的过程。

(8)、Recovery和Backfill

            Recovery过程是根据在Peering的过程中产生的、依据PG日志推算出不一致对象列表来修复其他副本上的数据。

            Backfill过程是通过逐一对比两个PG的对象列表来修复。

(9)、纠错码

             将写入的数据分成N份原始数据块,通过这N份原始数据块计算出M份校验数据块,N+M份数据块可分别保存在不同的设备或节点中。可以允许最多M个数据块失效,通过N+M份中的任意N份数据,还原出其他数据块。

(10)、快照和克隆

              快照就是一个存储设备在某一时刻的全部只读镜像。克隆是在某一时刻的全部可写镜像。快照和克隆的区别在于快照只能读,而克隆可写。

(11)、Cache  Tier

      Ceph  Client对于Cache层是透明的

       类Objector负责请求是发送给Cache Tier层,还是发给Storage Tier层

       Cache  Tier层为高速I/O层,保存热点数据,或称为活跃的数据

       Storage  Tier层为慢速层,保存非活跃的数据

(12)、Scrub

          Scrub机制用于系统检查数据的一致性。

 

参考文献

【1】《Ceph分布式存储实战》

【2】《Ceph源码分析》

 

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值