解决ceph使用reweight后导致出现pgs stuck unclean的问题

在openstack使用ceph的时候,后端存储有时候会分布不均匀,在使用量超出95%以后,ceph会将后端存储的访问接口禁用,导致所有数据访问停止,这个时候使用ceph的reweight命令进行osd权重调整后,可以将超过使用量的osd的reweight值调低,让集群重新开始均衡。
但是在集群扩容或者清理文件以后,最终查看ceph的状态总会出现如下的情况:

cluster f877d510-6946-4a66-bfbb-06b0ee12ae28
health HEALTH_WARN
77 pgs stuck unclean
recovery 46/949785 objects degraded (0.005%)
recovery 152987/949785 objects misplaced (16.108%)
monmap e3: 3 mons at {0=10.1.1.1:6789/0,1=10.1.1.2:6789/0,2=10.1.1.3:6789/0}
election epoch 70, quorum 0,1,2 0,1,2
osdmap e304: 3 osds: 3 up, 3 in; 77 remapped pgs
pgmap v2222751: 160 pgs, 2 pools, 1201 GB data, 309 kobjects
3676 GB used, 3756 GB / 7433 GB avail
46/949785 objects degraded (0.005%)
152987/949785 objects misplaced (16.108%)
83 active+clean
77 active+remapped
client io 66399 kB/s rd, 851 kB/s wr, 1221 op/s

其中会有类似77 pgs stuck unclean的问题出现,集群整体状态是HEALTH_WARN,虽然不影响使用,但是还是修复以下比较好。
如果该问题是由于之前通过reweight调整了权重后出现的,那么再将所有的osd的reweight重新调回1就可以了,亲测可用,原因尚不明确。
具体可以参考这个帖子:https://forum.proxmox.com/threads/problem-with-ceph-storage-pgs-stuck-unclean.34729/

注意:
由于出现pgs stuck unclean可能是由多种问题导致的,如果问题出现之前没有做过reweight操作,那么可以参考ceph的官方文档中的相关说明进行问题分析排查。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值