Ceph集群缩容及相关故障处理

本文介绍在Ceph集群中如何安全地移除机器并进行数据迁移,包括直接删除测试POOL对应的OSD、设置业务POOL对应的机器为out状态、调整权重以及构建新的crush规则等方法,并讨论了数据迁移过程中可能遇到的问题及解决方案。
摘要由CSDN通过智能技术生成

引言

由于目前机器比较紧张,需要将我集群中的一批机器提供给其他业务使用,这时问题来了,集群机器的退出意味着数据要重新分布,数据迁移的过程中比较容易出故障。

处理过程

处理测试POOL对应的机器

集群中有很多POOL, 有些POOL是客户数据,这非常重要;有些POOL是我测试用,这些POOL对应的OSD可以直接删除,即时集群报pg异常,也无需关心,在删除对应OSD后将对应POOL删除即可,相应的pg异常也消失。

注:为了避免关闭OSD的过程中发生数据迁移,请设置norecover标记。

ceph osd set norecover

删除对应主机上的所有OSD信息的命令如下:

killall -9 ceph-osd

for i in {108..119} 
do 
ceph osd out  osd.$i; 
ceph osd crush remove osd.$i; 
ceph auth del osd.$i;
ceph osd rm $i; 
ceph auth del osd.$i;
done


ceph osd crush remove hostname
removed item id -10 name 'hostname' from crush map
 

处理业务需要的POOL对应的机器

对于业务用到的POOL分布在了10台机器上,现在要从这10台机器中释放出五台,这需要涉及到数据迁移了。有三种办法进行处理。

方法一之设置out

将要退出的机器依次设置为out状态。一台机器做完后做另外一台,由系统负责将数据迁走;

方法二之设置权重

将要推出的机器权重调整为0,由系统负责将数据迁走;

方法三 构建新规则

  1. 构建新group,将要保留的机器放到新group下;
  2. 构建新crushrule, take from newgroup;
  3. 将业务pool的规则设置为new crush rule下;

这是最快的办法,只涉及到一次迁移,等待数据迁移完毕后,就可以将不需要的OSD关闭并移除了。

处理后碰到的问题

症状表现,在集群状态中显示少量PG状态异常。 active + remapped + backfilling active + remapped

[root@gnop029-ct-zhejiang_wenzhou-16-11 ~]# ceph -s
    cluster c6e7e7d9-2b91-4550-80b0-6fa46d0644f6
     health HEALTH_WARN
            2 pgs backfilling
            3 pgs stuck unclean
            recovery 24/2148593 objects misplaced (0.001%)
            norecover,noscrub,nodeep-scrub flag(s) set
     monmap e3: 3 mons at {a=101.71.4.11:6789/0,b=101.71.4.12:6789/0,c=101.71.4.13:6789/0}
            election epoch 446, quorum 0,1,2 a,b,c
     osdmap e69909: 120 osds: 120 up, 120 in; 3 remapped pgs
            flags norecover,noscrub,nodeep-scrub
      pgmap v8678900: 10256 pgs, 16 pools, 2763 GB data, 1047 kobjects
            7029 GB used, 197 TB / 214 TB avail
            24/2148593 objects misplaced (0.001%)
               10253 active+clean
                   2 active+remapped+backfilling
                   1 active+remapped

[root@ceph]# ceph pg dump_stuck unclean
ok
pg_stat	state	up	up_primary	acting	acting_primary
23.1c1	active+remapped+backfilling	[59,37]	59	[76,84]	76
23.23b	active+remapped	[35,7]	35	[82,119]	82
23.221	active+remapped+backfilling	[15,18]	15	[70,82]	70

后来我开启了scrub和deepscrub, 将所有pg扫描后就恢复为active + clean。

在发生数据迁移时,有时候某些osd会因为负载过高,导致osd进程退出,这是需要做两方面工作:

  1. 调低osd backfill的线程数量,降低osd工作负载;
  2. down掉的osd即时恢复,要不会有很多Pg状态异常,osd回复后这些异常的pg也会很快恢复正常;

转载于:https://my.oschina.net/myspaceNUAA/blog/750493

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值