分布式存储ceph集群osd容量不一致或不同节点osd数量不一致的处理方法,避免集群节点卡死

因分布式存储ceph集群可加入任意大小和性能的磁盘,所以我们误以为可以随意添加osd,只需要平衡一下weight值就行, 但实际操作中是会出现各种麻烦的,数据平衡或者恢复时可能造成节点直接卡死。

1、解决方案一

        建议各个节点下同一个存储池pool下的osd在各个节点中容量和读写性能大致一致,且所有osd节点保持相同osd数量,不一致的采取添加磁盘的方式进行平衡。

        对于容量完全不一致的,可以使用raid或zfs的方式先组成性能和容量相当的磁盘。

        对不同性能的磁盘如ssd和hdd,可使用crush rule进行分组,分组后有pool类型下的osd仍然不均的可只修改对应pool类型下的crush map type,参考下面解决方案二。

2、解决方案二

        调整crushmap的type,从host 调整为osd,crushmap的type为host的时,同一数据的不同副本会默认在不同的host主机之间找数据块进行存储,以防止同一个数据块的不同重复分布在同一故障主机的不同osd中,这样会造成ceph的数据在线服务中断。

        但一般情况下主机down的情况比单个osd down的几率要小一些,如不在意数据在线服务的中断,只关心数据存储,可以将crush的type设置为osd,这样数据存储时只考虑将数据重复副本分布在不同的磁盘中即可,尤其是在osd节点数低于3个和osd数及容量、性能不均的情况下使用是很有效的。

        osd crush map type修改:

###调整前请先注意暂停数据迁移和恢复动作,尽量在数据平衡和恢复停止后开始操作
#停止数据恢复和心跳
for i in noout nodown nobackfill norecover norebalance noscrub nodeep-scrub;do ceph osd set $i;done

###获取当前ceph的crushmap
ceph osd getcrushmap -o crushmap_compiled_file

###将获取的crushmap转换为普通文本
crushtool -d crushmap_compiled_file -o crushmap_decompiled_file

###编辑普通文本的crushmap file
vim crushmap_decompiled_file
#找到rules下的不同rule,以下是crush map中rules部分:
#################################
# rules
rule replicated_rule {   ##默认情况下只有replicated_rule,表示数据不同重复副本的存储规则,默认为host方式,即同一数据块的不同重复分布在不同主机的osd中。
        id 0
        type replicated
        step take default
        step chooseleaf firstn 0 type host
        step emit
}
rule rule-ssd {
        id 1
        type replicated
        step take default class ssd
        step chooseleaf firstn 0 type host   ##固态硬盘在各节点分布均匀,且节点数大于3个,所以不用修改
        step emit
}
rule rule-hdd {
        id 3
        type replicated
        step take default class hdd
        step chooseleaf firstn 0 type osd      ###机械硬盘的分布不均,修改为osd类型,
        step emit
}
####################################
存储池crush rule可自定义,根据实际需求设置crush type即可
####################################


###退出编辑保存,然后将编译后的文本类型crush map文件转换为可设置map文件:
crushtool -c crushmap_decompiled_file -o newcrushmap
###使用新生成的map文件设置crush rule
ceph osd setcrushmap -i newcrushmap

###打开心跳和数据平衡迁移
for i in noout nodown nobackfill norecover norebalance noscrub nodeep-scrub;do ceph osd unset $i;done
#观察数据平衡状态,集群会自动按照osd平衡的方式重新平衡数据
ceph -s
ceph osd df tree

下面是个人调整后的osd分布情况:

3 解决方案三:

直接添加新的osd分组,将指定pool应用新的规则,创建crush 类型时直接指定按照osd方式存储重复副本

###查看已有磁盘类型
ceph osd crush class ls

###如不满足多个类型, 先删除需要分组的osd已有类型
for i in {0..11} ; do ceph osd crush rm-device-class osd.$i;done

###将特定osd指定磁盘分组
for i in {0..11};do ceph osd crush set-device-class ssd osd.${i};done

###新建ssd和hdd磁盘对应分类规则,分布均匀的使用host type,分布不均的使用osd type
ceph osd crush rule create-replicated rule-ssd default host ssd
ceph osd crush rule create-replicated rule-hdd default osd hdd

###创建存储池并应用相应规则
ceph osd pool create ssdpool 64 64 rule-ssd
ceph osd pool create hddpool 64 64 rule-hdd

###修改pool绑定的rule
ceph osd pool set cephfs_data crush_rule rule-ssd
ceph osd pool set cephfs_metadata crush_rule rule-ssd

###查看存储池信息
ceph osd pool ls detail

  • 4
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小果运维

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值