CEPH分布式集群原理

1 概述
1.2 集群概述
    Ceph集群是一个集Monitors[1]、OSDs[2]、MDs[3]三种节点组成的一种集群。这里我所做的Ceph集群的搭建步骤主要以Monitor+OSDs为核心来搭建该集群,若掌握了这两个搭建集群的方法,理解其搭建流程,再在此基础上添加MDs就会变得很简单。总的来说,搭建集群难点在于集群前期的搭建以及让这个集群达到active(激活)状态,之后再添加OSD或是MD单元都只是一行命令的事。

    本次搭建主要让大家熟悉Ceph集群的搭建流程,只做一个简要集群搭建的步骤详解,用于抛砖引玉。

    本次搭建集群的主要结构如图1.1与表1.1

    

图1.1  集群主要结构

 表1.1  各节点相关信息

名称    hostname    IP    功能
节点1    node1    192.168.80.129    Monitor
节点2    node2    192.168.80.130    OSD
节点3    node3    192.168.80.131    OSD
[1]Monitors维护着展示集群状态的各种图表,包括监视器图、 OSD 图、归置组( PG )图、和 CRUSH 图。 Ceph 保存着发生在Monitors 、 OSD 和 PG上的每一次状态变更的历史信息(称为 epoch )。

[2] OSD 守护进程( Ceph OSD )的功能是存储数据,处理数据的复制、恢复、回填、再均衡,并通过检查其他OSD 守护进程的心跳来向 Ceph Monitors 提供一些监控信息。当 Ceph 存储集群设定为有2个副本时,至少需要2个 OSD 守护进程,集群才能达到 active+clean 状态( Ceph 默认有3个副本,但你可以调整副本数)。

[3] 元数据服务器( MDS )为 Ceph 文件系统存储元数据(也就是说,Ceph 块设备和 Ceph 对象存储不使用MDS )。元数据服务器使得POSIX 文件系统的用户们,可以在不对 Ceph 存储集群造成负担的前提下,执行诸如 ls、find 等基本命令。
 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Ceph是一个开源的分布式存储系统,它的设计目标是提供高性能、高可靠性和可扩展性的存储解决方案。它采用了一些关键的技术来实现这些目标。 首先,Ceph采用了一种称为CRUSH算法的数据分布算法。CRUSH算法通过将数据块映射到物理存储设备上的对象来决定数据的存储位置。这种映射方式能够通过引入散列函数和散列算法来实现数据的均衡分布,并能够动态地适应存储集群的扩容和缩容。 其次,Ceph使用了RADOS(Reliable Autonomous Distributed Object Store)作为底层存储系统。RADOS是一个分布式对象存储系统,它将数据分为多个对象并存储在多个存储节点上,确保数据的可靠性和冗余。RADOS采用了副本复制和奇偶校验等技术来保证数据的可靠性和恢复性。 此外,Ceph还引入了一个元数据服务器(Metadata Server)来管理文件系统的元数据信息。元数据服务器负责存储文件系统的目录结构、文件属性等信息,并且可以实现元数据的动态扩展和负载均衡。 最后,Ceph提供了统一的接口和协议,使得应用程序可以通过不同的接口(如块设备、文件系统、对象存储)来访问和管理数据。这样,Ceph可以适应不同应用场景和需求,提供灵活和可扩展的存储解决方案。 总的来说,Ceph通过使用CRUSH算法、RADOS存储系统、元数据服务器和统一接口等关键技术,实现了高性能、高可靠性和可扩展性的分布式存储解决方案。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值