在openstack使用ceph的时候,后端存储有时候会分布不均匀,在使用量超出95%以后,ceph会将后端存储的访问接口禁用,导致所有数据访问停止,这个时候使用ceph的reweight命令进行osd权重调整后,可以将超过使用量的osd的reweight值调低,让集群重新开始均衡。
但是在集群扩容或者清理文件以后,最终查看ceph的状态总会出现如下的情况:
cluster f877d510-6946-4a66-bfbb-06b0ee12ae28
health HEALTH_WARN
77 pgs stuck unclean
recovery 46/949785 objects degraded (0.005%)
recovery 152987/949785 objects misplaced (16.108%)
monmap e3: 3 mons at {0=10.1.1.1:6789/0,1=10.1.1.2:6789/0,2=10.1.1.3:6789/0}
election epoch 70, quorum 0,1,2 0,1,2
osdmap e304: 3 osds: 3 up, 3 in; 77 remapped pgs
pgmap v2222751: 160 pgs, 2 pools, 1201 GB data, 309 kobjects
3676 GB used, 3756 GB / 7433 GB avail
46/949785 objects degraded (0.005%)
152987/949785 objects misplaced (16.108%)
83 active+clean
77 active+remapped
client io 66399 kB/s rd, 851 kB/s wr, 1221 op/s
其中会有类似77 pgs stuck unclean
的问题出现,集群整体状态是