ceph 创建存储池提示pool size is bigger than the crush rule max size

13 篇文章 0 订阅
5 篇文章 0 订阅

在一次纠删存储测试中,发现删掉的纠删存储池使用如下命令设置了一个新的纠删profile:

ceph osd erasure-code-profile set ec_profile_42  k=4 m=2 crush-failure-domain=osd

再使用如下命令从新创建的时候:

ceph osd pool create china_ec 16 16 erasure ec_profile_42

奇迹般的出现了如下提示:

Error EINVAL: pool size is bigger than the crush rule max size

既然提示的是crush rule max size,我们来查看一下集群的crush rule:

ceph osd crush rule ls

输出如下:

replicated_rule
chia_ec
china_ec
erasure-code

咦,明明我们已经使用[ceph osd pool delete china_ec china_ec --yes-i-really-really-mean-it]删除了china_ec存储池,为啥还会有china_ec的crush rule?

其实问题就出在这里,ceph集群中,删除存储池的时候,crush rule并不会被删除。我们使用如下命令查看一下china_ec的crush rule信息:

ceph osd crush rule dump china_ec

结果如下:

{
    "rule_id": 2,
    "rule_name": "china_ec",
    "ruleset": 2,
    "type": 3,
    "min_size": 3,
    "max_size": 5,
    "steps": [
        {
            "op": "set_chooseleaf_tries",
            "num": 5
        },
        {
            "op": "set_choose_tries",
            "num": 100
        },
        {
            "op": "take",
            "item": -1,
            "item_name": "default"
        },
        {
            "op": "choose_indep",
            "num": 0,
            "type": "osd"
        },
        {
            "op": "emit"
        }
    ]
}

从输出汇总,我们可以看到原始的crush rule的max_size是5(其实就是k+m的值)。由于我们测试的新的纠删profile配置的k=4,m=2,按理max_size是等于6,比原始的crush rule的信息大,发生了冲突,所以出现了该报错。

解决方法

使用如下命令,删除原始的crush rule:

ceph osd crush rule rm china_ec

删除以后即可从新创建

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值