分布式存储ceph集群osd容量不一致或不同节点osd数量不一致的处理方法,避免集群节点卡死_ceph中不建议加osd还是副本数(1)

对不同性能的磁盘如ssd和hdd,可使用crush rule进行分组,分组后有pool类型下的osd仍然不均的可只修改对应pool类型下的crush map type,参考下面解决方案二。

2、解决方案二

调整crushmap的type,从host 调整为osd,crushmap的type为host的时,同一数据的不同副本会默认在不同的host主机之间找数据块进行存储,以防止同一个数据块的不同重复分布在同一故障主机的不同osd中,这样会造成ceph的数据在线服务中断。

但一般情况下主机down的情况比单个osd down的几率要小一些,如不在意数据在线服务的中断,只关心数据存储,可以将crush的type设置为osd,这样数据存储时只考虑将数据重复副本分布在不同的磁盘中即可,尤其是在osd节点数低于3个和osd数及容量、性能不均的情况下使用是很有效的。

osd crush map type修改:

###调整前请先注意暂停数据迁移和恢复动作,尽量在数据平衡和恢复停止后开始操作
#停止数据恢复和心跳
for i in noout nodown nobackfill norecover norebalance noscrub nodeep-scrub;do ceph osd set $i;done

###获取当前ceph的crushmap
ceph osd getcrushmap -o crushmap_compiled_file

###将获取的crushmap转换为普通文本
crushtool -d crushmap_compiled_file -o crushmap_decompiled_file

###编辑普通文本的crushmap file
vim crushmap_decompiled_file
#找到rules下的不同rule,以下是crush map中rules部分:
#######
  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Ceph是一个可靠的、据自动重均衡、自动恢复的SDS(软件定义存储)分布式存储系统,功能主要有三大块:块存储、对象存储、文件系统。Ceph不但是提供了统一存储,并且同时还充分利用了客户端的计算能力,在存储每一个据时,都会通过计算得出该据存储的位置,尽量将据分布均衡,同时由于Ceph的设计,采用了CRUSH算法、HASH环等方法,使得它不存在传统的单点故障的问题,且随着规模的扩大性能并不会受到影响。不管是私有云还是公有云,随着云架构的发展,Ceph 成为了OpenStack、Proxmox标配的后端存储,不光如此,就连目前最火的容器编排 Kubernetes 持久存储也都支持 Ceph ,让 Ceph 成为当前主流的存储系统,而对 Ceph 存储的学习也就变的刻不容缓。 该课程属于比较基础的 Ceph 存储课程,旨在让大家能快速上手对 Ceph 集群的部署以及操作,主要讲解以下几个方面: 1.     架构的介绍2.     集群的多种部署方式3.     块存储部署,客户端使用及快照、克隆和镜像4.     对象存储的部署及简单使用5.     Ceph FS 文件系统的部署、客户端使用及导出为NFS6.     集群的操作和管理,包括服务,集群扩展,缩减和集群维护7.     Ceph 基础知识的介绍,包括集群map,PG和身份验证8.     Ceph 集群的监控
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值