博客专栏  >  云计算/大数据   >  深入理解CEPH系统

深入理解CEPH系统

Ceph,一个可扩展的分布式文件系统,支持文件、块、对象三种存储方式,提供了优秀的性能、可靠性和可伸缩性。

关注
16 已关注
33篇博文
  • 初始ceph-iscsi-cli

    Ceph-iSCSI-Cli会安装一个类似于targetcli的接口,它允许基于一个接口管理多个Ceph/iSCSI网关。Cli基于rbd-target-gw公开的API接口实现,每个节点上都会运行r...

    2018-03-13 07:34
    194
  • 【实践】ceph-deploy install时报No section: 'ceph';

    问题No section: 'ceph'问题日志[ceph@node0 cluster]$ ceph-deploy install node0 node1 node2 node3 [ceph_depl...

    2016-07-04 21:10
    4428
  • [Ceph分析]Fuse流程分析

    本文是对FUSE-2.9.2源码的学习总结。FUSE代码在用户空间和内核空间都有运行,为了突出重点,先简要描述了在基于FUSE的用户空间文件系统中执行write操作的一般流程

    2017-06-26 19:02
    893
  • 【分析】CRUSH数据分布算法介绍

    随着大规模分布式存储系统(PB级的数据和成百上千台存储设备)的出现。这些系统必须平衡的分布数据和负载(提高资源利用率),最大化系统的性能,并要处理系统的扩展和硬件失效。ceph设计了CRUSH(一个可...

    2017-09-28 07:51
    348
  • 【实践】基于Ceph打造高性能高可靠的分布式块存储系统

    分布式存储有出色的性能,可以扛很多故障,能够轻松扩展,所以我们使用Ceph构建了高性能、高可靠的块存储系统,并使用它支撑公有云和托管云的云主机、云硬盘服务。 由于使用分布式块存储系统,避免了复制镜像的...

    2017-09-28 12:06
    391
  • 【分析】Ceph and RBD Mirroring:Luminous

    高可用是一个应用程序的关键能力。理想情况下,应用程序本身是支持高可用的。正由于此,RBD mirroring也需要支持高可用。我们可能在任意数量的机器上运行任意数量的守护进程,将有专门的线程来负责如何...

    2017-10-01 22:29
    449
  • 【分析】RBD Mirroring - 原理、概念、命令

    RBD Mirroring - 原理、概念、命令​ Ceph采用的是强一致性同步模型,所有副本都必须完成写操作才算一次写入成功,这就导致不能很好地支持跨域部署,因为如果副本在异地,网络延...

    2017-10-01 22:38
    621
  • 【分析】CephFS quota的支持

    CephFS 允许给系统内的任意目录设置配额,这个配额可以限制目录树中这一点以下的字节数或者文件数。

    2017-10-05 22:36
    547
  • 【分析】Ceph编程实例 接口Librbd(C++) -- 映像创建与数据读写

    目前我们有两种路径使用Ceph的块存储: - 利用QEMU/KVM通过librbd与 Ceph 块设备交互,主要为虚拟机提供块存储设备,如下图所示; - 利用kernel module与Host ke...

    2018-02-26 18:57
    61
  • 【分析】通过Ceph RBD实现iSCSI

    作者:SebastianHan原文:https://sebastien-han.fr/blog/2017/01/05/Ceph-RBD-and-iSCSI/译者:Younger Liu 这篇文章是一系...

    2018-03-01 08:03
    235
  • [分析]Ceph源码目录结构分析

    来源http://blog.csdn.net/scaleqiao/article/details/511655751  简介该代码架构基于版本10.0.5整理,先整理根目录里的代码,再整理出src目录...

    2017-06-26 17:39
    790
  • 【分析】Ceph文件系统修复机制cephfs-data-scan(3)

    ceph-data-scan是通过函数data_scan.main(args)解析并执行用户命令的。data_scan.main(args)的参数检查和解析及其ceph-data-scan init的...

    2017-08-06 01:38
    558
  • 【分析】Ceph文件系统修复机制cephfs-data-scan(2)

    前述章节已经介绍过,ceph-data-scan是通过函数data_scan.main(args)解析并执行用户命令的。本章节主要介绍data_scan

    2017-08-05 14:44
    778
  • 【分析】Ceph文件系统修复机制cephfs-data-scan(1)

    一般文件系统采用的fsck命令来维护文件系统一致性,但是fsck对cephfs的难度是非常大的,主要原因在于其机制存在根本的区别: 1. cephfs修复的是一个rados集群数据而非一块磁盘设备; ...

    2017-07-29 18:37
    682
  • 【分析】一般文件系统的fsck机制

    在使用文件系统作为载体存储文件数据的过程,由于异常掉电或者其他硬件异常错误,总有可能使得文件系统数据不一致,导致文件系统的文件数据无法访问,或者用户访问到不一致的数据,产生更大的损失。 因此,为了检查...

    2017-07-29 18:32
    562
  • 【分析】Ceph数据一致性检查 - Scrub调优

    除了使用对象多副本,Ceph还通过Scrub 归置组(PG)来保证数据的完整性。在对象存储层,Ceph Scrub类似于fsck。针对每一个归置组(PG),OSD比较主副本和从副本,确保没有对象丢失和...

    2017-07-22 16:17
    938
  • 【分析】Ceph数据一致性检查 - Scrub的执行

    [Ceph分析]数据一致性检查 - Scrub的调度

    2017-07-19 20:53
    640
  • 【分析】Ceph数据一致性检查 - Scrub的调度

    1.1   Scrub的调度解决一个PG何时启动Scrub扫描机制。主要有以下方式:1. 手动立即启动执行扫描2. 在后台设置一定的时间间隔,按照时间间隔的时间启动。默认时间为一天执行一次。3. 设置...

    2017-07-15 11:36
    966
  • 【分析】Ceph数据一致性检查 - Scrub的介绍

    Ceph实现了Scrub机制,采用一种通过后台扫描的方案来解决ceph数据一致性的问题。

    2017-07-15 11:32
    1140
  • 【分析】Ceph数据一致性检查 - 端到端的数据校验

    何谓端到端的数据校验?是指应用层在写入数据时,在经过每个数据模块时,都计算并增加一个校验和信息,并将这些校验和信息和数据块一起发送至磁盘。磁盘在接收到数据包之后,会重新校验信息,并和接收到的校验信息做...

    2017-07-15 11:26
    1133

img博客搬家
img撰写博客
img发布 Chat
img专家申请
img意见反馈
img返回顶部