CentOS7环境下的Ceph,删除一个OSD步骤:
1、把 OSD 踢出集群(管理节点上执行)
[dgb@ceph-admin ~]$ceph osd out 6
删除 OSD 前,它通常是 up 且 in 的,要先把它踢出集群,以使 Ceph 启动重新均衡、把数据拷贝到其他 OSD
2、观察数据迁移(管理节点上查看)
[dgb@ceph-admin ~]$ceph -w
osd会立即重新平衡
2017-04-17 13:44:00.811494 mon.0 [INF] pgmap v52399: 112 pgs: 1 active+remapped, 111 active+clean; 1588 bytes data, 19100 MB used, 99020 MB / 115 GB avail; 0 B/s, 16 objects/s recovering
2017-04-17 13:44:01.839354 mon.0 [INF] pgmap v52400: 112 pgs: 1 active+remapped, 111 active+clean; 1588 bytes data, 19100 MB used, 99019 MB / 115 GB avail
2017-04-17 13:44:03.861768 mon.0 [INF] pgmap v52401: 112 pgs: 1 active+remapped, 111 active+clean; 1588 bytes data, 19100 MB used, 99019 MB / 115 GB avail
3、然后停止相关的OSD
需要登录到对应的服务器去
然后执行:
[dgb@ceph2 ~]$ sudo systemctl stop ceph-osd@6
1、把 OSD 踢出集群(管理节点上执行)
[dgb@ceph-admin ~]$ceph osd out 6
删除 OSD 前,它通常是 up 且 in 的,要先把它踢出集群,以使 Ceph 启动重新均衡、把数据拷贝到其他 OSD
2、观察数据迁移(管理节点上查看)
[dgb@ceph-admin ~]$ceph -w
osd会立即重新平衡
2017-04-17 13:44:00.811494 mon.0 [INF] pgmap v52399: 112 pgs: 1 active+remapped, 111 active+clean; 1588 bytes data, 19100 MB used, 99020 MB / 115 GB avail; 0 B/s, 16 objects/s recovering
2017-04-17 13:44:01.839354 mon.0 [INF] pgmap v52400: 112 pgs: 1 active+remapped, 111 active+clean; 1588 bytes data, 19100 MB used, 99019 MB / 115 GB avail
2017-04-17 13:44:03.861768 mon.0 [INF] pgmap v52401: 112 pgs: 1 active+remapped, 111 active+clean; 1588 bytes data, 19100 MB used, 99019 MB / 115 GB avail
3、然后停止相关的OSD
需要登录到对应的服务器去
然后执行:
[dgb@ceph2 ~]$ sudo systemctl stop ceph-osd@6