下图是我的测试集群空间使用情况(osd pool default size = 3):
AVAIL > POOLS MAX AVAIL/3
当这个问题出现时,我百思不得其解,开始以为是quota的问题,随后调整quota,MAX AVAIL没有任何。
后来想到有可能是因为新添加的osd没有真正融入pool中
使用命令:
ceph osd df
看到如下情况:
果然,有三块硬盘没有加入pool中
遂查看crushmap文件,发现未加入pool的osd所在的ceph node 没有加入到集群root下(默认的root default下)
修改之
重新注入,变化发生