Ceph
文章平均质量分 79
Ceph从入门到精通
错误自动机
这个作者很懒,什么都没留下…
展开
-
使用ceph-deploy部署Ceph集群
使用了Ubuntu22.04安装ceph-deploy,因为python模块适配的问题,最多只能到python3.6(3.7以上可能也行,但是要去github上面下载ceph最新版本2.1.0)Ceph官方推荐部署已经把Ceph-deploy取消了,原因是Ceph-deploy在20年就不再维护更新了。执行这一步时,需要到对于host下创建一个磁盘分区,并且必须为空。所以使用Ubuntu18.04或以下版本部署最好。原创 2023-10-12 11:02:54 · 372 阅读 · 0 评论 -
Ceph运维笔记
【代码】Ceph运维笔记。原创 2023-10-13 10:31:51 · 451 阅读 · 0 评论 -
Ceph--PG读写流程和迁移
对于纠删码而言,当涉及覆盖写时,如果改写的部分不足一个完整条带(指写入的起始地址或者数据长度没有进行条带对齐),则需要执行RMW,这期间需要多次执行补齐读、重新生成完整条带并重新计算校验块、单独生成每个副本的事务并构造消息进行分发(Write)、同时在必要时执行范围克隆和对PG日志进行修正,以支持Peering期间的回滚操作。如果删除head对象并且对象仍然被快照引用,则创建snapdir对象,同时生成一条创建snapdir对象的日志,并将head对象的OI和SS属性用snapdir’对象转存。原创 2023-10-08 18:07:37 · 337 阅读 · 0 评论 -
Ceph----纠删码
磁盘的空间利用率高实现更复杂性能更差。原创 2023-10-08 08:51:54 · 287 阅读 · 0 评论 -
Ceph--存储服务质量QoS
虽然已经具备QoS功能,但在平衡后端I/O资源的调度策略上还不是特别好。原创 2023-10-09 09:44:18 · 437 阅读 · 0 评论 -
Ceph----CRUSH算法
包括了CRUSH算法的流程,介绍straw算法。原创 2023-10-06 10:46:46 · 149 阅读 · 0 评论 -
Ceph--存储引擎BlueStore
又因为产生了新PG,需要存储到OSD中,因为原先老PG存放到OSD中时已经做了负载均衡,新PG的数据又是从老PG迁移过来的,所以新PG存放的OSD就和老PG相同,以减少数据的跨OSD迁移造成性能的损耗。BlueStore提供的读写接口都是基于PG粒度的,通过其提供的接口来操作PG下的某个对象,首先需要找到BlueStore中对应PG上下文和对象上下文,这两类上下文保存了关键的PG和对象的元数据信息,而且BlueStore通过KVDB固化这两类上下文至磁盘,接下来我们需要谅解这两类上下文的磁盘数据结构。原创 2023-10-07 16:17:20 · 531 阅读 · 0 评论 -
Ceph简要概括
首先Ceph会将一个文件A分为大小默认为4M的object(且有一个唯一编号文件名+序号),通过hash(object id) & mask(通常为osd的数量减一)得到PG id,最后通过CRUSH(PG id) --> (osd1,osd2,osd3) 将该PG存储到这三个osd中,其中一个为primary,剩下两个为副本。当Ceph存储集群设定的数据有两个副本时(一共存两份),则至少需要两个OSD守护进程,即两个OSD节点,集群才能到达active+clean状态。用于集群中所有数据与对象的存储。原创 2023-10-05 11:04:56 · 52 阅读 · 0 评论