rook下osd的移除与加回

本文详细介绍了在Ceph集群中遇到数据不一致问题时的排查步骤,包括通过ceph-s、cephhealthdetail命令定位问题,并通过kubernetes操作移除故障OSD的完整流程。涉及了osd的定位、磁盘状态检查、数据均衡、osd的停用、删除、清理及恢复。此外,还提供了磁盘格式化脚本和新OSD的添加方法。
摘要由CSDN通过智能技术生成

rook移除osd

问题:

注意:以下数据来源于个人环境,图文可能不一致需根据实际修改IP等数据

1、ceph -s 查看报错有1个pg数据不一致,并且通过ceph osd status查看osd状态都是UP状态
在这里插入图片描述

2、ceph health detail 查看初步确认是pg1.25的osd 52,56以及8中有硬盘可能有坏
在这里插入图片描述

解决:
一、查找对应的osd和磁盘关系

1、ceph osd repair 定位osd,在修复pg的过程中,报错:1.25 shard 56 soid candidate had a read error
在这里插入图片描述
2、找到osd.56对应pod所在节点
在这里插入图片描述
3、kubectl get po xxxx-osd-56-xxx -n rook-ceph -o yaml |grep UUID 查询如下,ROOK_OSD_UUID,记录此处圈起来的字符串
在这里插入图片描述
4、去到osd.56对应的node(第三步有查到),执行命令lsblk |grep -C2 85d2d15c(上一步记录的字符串),找到对应的磁盘是sde
在这里插入图片描述
5、根据物理硬盘,在所在主机的dmesg的日志中查询发现osd 56对应的硬盘sde确实有报错,blk_update_request: critical medium error在百度中查询说是硬盘坏道
在这里插入图片描述

二、移除osd

现在有需求需要停⽌ 172-17-27-92 上的 sda 也就是 osd.5
在这里插入图片描述
1、先把operator设置为0

kubectl -n rook-ceph scale deployment rook-ceph-operator --replicas=0 

2、修改配置,将需要移除的盘移除:

kubectl edit cephclusters.ceph.rook.io -n rook-ceph rook-ceph 

在这里插入图片描述

删除对应的对应的盘,如果只有⼀块盘则直接删除主机,即上图圈起来部分;

如果是该主机下多块盘则删除对应的盘即可;

如果是修改cncp.yaml文件,cncp.yaml,不删除主机得用一下这种格式。

在这里插入图片描述

3、手动移除对应osd

kubectl exec -it -n rook-ceph rook-ceph-tools-769bdf4bdd-hdx6r bash
ceph osd set noup
ceph osd down 0
ceph osd out 0
#ceph -w查看数据均衡进度, 等待数据均衡完成

在这里插入图片描述

在这里插入图片描述

4、均衡数据完成后移除对应的osd

ceph osd purge 0 --yes-i-really-mean-it
ceph auth del osd.0

在这里插入图片描述
如果出现下面情况属正常在这里插入图片描述

5、如果该主机只有⼀块盘则对应移除该主机(如果是多块盘无需执行此步)

可以通过 ceph osd tree 确定该主机是否为⼀块盘

执行:

ceph osd crush remove 172-17-27-77

6、检查ceph状态以及osd状态

ceph -s
ceph osd tree

7、移除pod,和判断删除对应的job

kubectl delete deploy -n rook-ceph rook-ceph-osd-0

8、恢复配置

ceph osd unset noup

9、格式化磁盘或者下架磁盘

对应机器执⾏,输⼊对应需要下架的盘

#!/bin/bash
yum -y install gdisk
read -p "input your disk [/dev/sda]:" DISK
# 磁盘去格式化
# DISK="/dev/sda"
# Zap the disk to a fresh, usable state (zap-all is important, b/c MBR has to be
clean)
# You will have to run this step for all disks.
sgdisk --zap-all $DISK
dd if=/dev/zero of="$DISK" bs=1M count=100 oflag=direct,dsync
# These steps only have to be run once on each node
# If rook sets up osds using ceph-volume, teardown leaves some devices mapped that
lock the disks.
ls /dev/mapper/ceph-* | xargs -I% -- dmsetup remove %
# ceph-volume setup can leave ceph-<UUID> directories in /dev (unnecessary clutter)
rm -rf /dev/ceph-*
lsblk -f

10、恢复rook的operator

kubectl -n rook-ceph scale deployment rook-ceph-operator --replicas=1

11、检查对应osd的pod是否启动

kubectl get pod -n rook-ceph -o wide |grep rook-ceph-osd

在这里插入图片描述

三、移除osd

怎么删除的,怎么加入进去

  • 前提,先到对应机器格式化所需添加的磁盘
  • 再执行kubectl edit cephclusters.ceph.rook.io -n rook-ceph rook-ceph
  • 最后重启operator然后等待就可以了

格式盘脚本:

[root@172-17-27-92 ~]# cat ceph.sh
#!/bin/bash
#read -p "input your disk [/dev/sda]:" DISK
DISK="/dev/sda"
if [ ! -z $1 ];then
DISK=$1
fi
# 磁盘去格式化
# DISK="/dev/sda"
# Zap the disk to a fresh, usable state (zap-all is important, b/c MBR has to be clean)
# You will have to run this step for all disks.
sgdisk --zap-all $DISK
dd if=/dev/zero of="$DISK" bs=1M count=100 oflag=direct,dsync

# These steps only have to be run once on each node
# If rook sets up osds using ceph-volume, teardown leaves some devices mapped that lock the disks.
ls /dev/mapper/ceph-* | xargs -I% -- dmsetup remove %
# ceph-volume setup can leave ceph-<UUID> directories in /dev (unnecessary clutter)
rm -rf /dev/ceph-*

lsblk -f
rm  -rf /var/lib/rook/*

再执行:

kubectl edit cephclusters.ceph.rook.io -n rook-ceph   rook-ceph

在这里插入图片描述
最后重启operator等待即可,查看ceph集群状态是否有新加入osd

重新加入就一个问题,ceph auth get osd.x,这个出来删除就可以了

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值