ceph分布式存储---集群osd节点下架操作

存储节点服务器下架操作

1、操作系统版本信息

      系统:GNU/Linux 7.2

      内核版本:3.18.16

      Ceph版本:ceph 0.94.6

2、备份crush规则

      # ceph osd getcrushmap -o `date +%F`-crushmap

3、查看及调整集群数据同步速度

# ceph --admin-daemon /var/run/ceph/ceph-osd.10.asok config show|grep recover

# ceph --admin-daemon  /var/run/ceph/ceph-osd.10.asok config show|grep backfill

# ceph tell osd.* injectargs "--osd_recovery_max_active 3"

# ceph tell osd.* injectargs "--osd_max_backfills 1"

 

存储池操作】:清除存储集群backfill、volumes池,如无存储池操作,以下操作不用操作,直接进入第4步

      设置不同步不回填

           ceph osd set norecover

           ceph osd set nobackfill

      先从backup池host =cs219-20-2 对应规则中去掉需要去掉的osd:

           ceph osd crush remove osd.$i cs219-20-2

      移除backup池中host cs219-20-2

           ceph osd crush remove cs219-20-2     

      取消不同步不回填

           ceph osd unset norecover

           ceph osd unset nobackfill    

      删除cs219-20池中的osd条目    

      设置不同步不回填

           ceph osd set norecover

           ceph osd set nobackfill

      同步完之后,从volumes池host=cs219-20对应规则中去掉需要去掉的osd:

           ceph osd crush remove osd.$i cs219-20

           ceph osd crush remove cs219-20

      取消不同步不回填

           ceph osd unset norecover     {待recover数据同步完成后,在进行回填数据}

           ceph osd unset nobackfill

      观察集群状态: iops  机器负载  osd状态  注意群里用户问题反馈

4、设置集群数据不同步、不回填

# ceph osd set norecover

# ceph osd set nobackfill

5、清除存储集群crush规则中的osd节点信息:(登录要下架的存储服务器)

清楚crush规则:

# for i in `lsblk | grep "/data/osd.*" |awk -F "/" '{print $3}'`;do ceph osd crush remove $i;done

6、设置同步、回填集群数据

# ceph osd unset norecover

【当集群数据同步完成后,再设置开启集群回填数据】

# ceph osd unset nobackfill

【为什么不直接清除完集群osd节点再进行数据同步呢??】

      因为,为防止集群出现意外故障,造成存储集群不可逆的情况,这时可通过之前备份的crush规则进行修复。

7、下架集群osd节点

剔除osd节点 :【操作前,测试下】

#for i in `lsblk | grep "/data/osd.*" |awk -F "/" '{print $3}'`;do ceph osd out $i;done

停止osd节点:

# service ceph stop osd

删除osd认证密钥:

# for i in `lsblk | grep "/data/osd.*" |awk -F "/" '{print $3}'`;do ceph auth del $i;done

删除osd节点

# for i in `lsblk | grep "/data/osd.*" |awk -F "[./]" '{print $NF}'`;do ceph osd rm $i;done

删除配置文件中osd节点信息,并将配置文件同步到ceph集群中

# for i in `cat /etc/hosts |grep "^192.192."|awk -F"[ ]+" '{print $2}'`;do scp /etc/ceph/ceph.conf $i:/etc/ceph/ceph.conf;done

8、数据同步完成后观察集群使用率、集群状态

9、卸载挂载目录、删除osd数据目录、日志文件等相关osd节点信息

#for i in `lsblk | grep "/data/osd.*" |awk '{print $NF}'`;do umount $i;done

# rm -rf /data/osd.*

# rm -rf /var/log/ceph/*

                                                【至此,存储集群osd节点服务器下架操作完成】

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

想个响亮的名字

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值