k8s中使用rook-ceph的扩缩容问题

ceph中osd迁移

  • ceph集群中通过osd数据迁移实现集群存储扩缩容及故障排除

1.1 先关闭osd服务

# 编辑osd的deploy,副本数变为0
kubectl -n rook-ceph edit deploy rook-ceph-osd-2

# 此时ceph中对应osd的状态变为down

ceph中osd的状态讲解

  • 集群内(in)
  • 集群外(out)
  • 活着且在运行(up)
  • 挂了且不再运行(down)

状态流转过程

  • 正常情况下OSD的状态是up in状态,如果down掉OSD,它的状态会变为down in,等待数据均衡完成后osd变为down out状态
  • Ceph 会把其归置组迁移到其他OSD, CRUSH 就不会再分配归置组给它。

2.2 在ceph中清除对应的osd

  • 当osd的状态变为down时,会自动触发数据迁移!此时需要关注osd的状态是否变为down out,可以通过ceph osd stat查看
[root@data1 ~]# ceph osd stat
4 osds: 3 up (since 23m), 3 in (since 13m); epoch: e345
  • 变为down out状态,开始清除osd
## 清除osd
ceph osd rm osd.2

## 从crush map中删除OSD
ceph osd crush rm osd.2

## 删除残留的权限数据,否则影响新的osd启动
ceph auth del osd.2

ceph中osd的扩容

  • 通过通过增加盘的方式进行扩容,只需要重启rook-ceph-operator服务即可
  • 如果需要纵向扩容,即增加磁盘容量!可以先通过数据迁移,执行操作1osd迁移后,在增加新的磁盘
  • 12
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值