测试环境
操作系统 | 主机名 | IP | OSD 设备 | OSD ID | 容量 | ceph 版本 |
---|
CentOS7 | ceph101 | 192.168.1.101 | /dev/sdb | 0 | 3TB | jewel |
CentOS7 | ceph102 | 192.168.1.102 | /dev/sdb | 1 | 3TB | jewel |
CentOS7 | ceph103 | 192.168.1.103 | /dev/sdb | 2 | 3TB | jewel |
- ceph 部署机
- 操作系统: CentOS7
- 部署用户: cephdeploy
- 操作目录: /home/cephdeploy/ceph-cluster
- IP: 192.168.1.100
新增 OSD
- 设置 ceph 三个 noflag,禁止 ceph 自动迁移数据
# 在任一节点上执行下面命令即可
ceph osd set noout
ceph osd set nobackfill
ceph osd set norecover
ceph -s # 此时能看到这三个 flag,而且集群处于不健康状态
- 关闭这三台 ceph 服务器, 加装新的磁盘,个人认为无需配置多盘 raid
- 启动这三台 ceph 服务器,此时 ceph 自动启动,那三个 noflag 依旧有效
- 此时查看每台服务器的存储,应该能看到新增的一个或多个裸磁盘
lsblk
- 这里假设每台服务器新增两个磁盘(/dev/sdc,/dev/sdd),都配置成 osd
# 在 ceph 部署机上执行以下命令
su - cephdeploy
cd /home/cephdeploy/ceph-cluster
# 每次创建一个,别浪 ...
ceph-deploy osd create ceph101:/dev/sdc
ceph-deploy osd create ceph101:/dev/sdd
ceph-deploy osd create ceph102:/dev/sdc
ceph-deploy osd create ceph102:/dev/sdd
ceph-deploy osd create ceph103:/dev/sdc
ceph-deploy osd create ceph103:/dev/sdd
- osd 增加完成后, 取消之前设置的那三个 noflag
# 在任一节点上执行下面命令即可
ceph osd unset noout
ceph osd unset nobackfill
ceph osd unset norecover
- 此时数据向新增的 osd 上均衡,时间不确定 …… 只能等!
# 在任一节点上执行下面命令,观察数据迁移
ceph -w
- 直至 ceph 恢复健康状态
# 在任一节点上执行下面命令,查看集群状态
ceph -s
删除 OSD
- 把指定的 osd 踢出集群
# 在任一节点上执行下面命令即可
ceph osd out {osd-id}
ceph -s # 此时能看到一个 osd 已经 out
- 此时数据在剩下的几个 osd 上均衡,时间不确定 …… 只能等!
# 在任一节点上执行下面命令,观察数据迁移
ceph -w
- 直至 ceph 恢复健康状态
# 在任一节点上执行下面命令,查看集群状态
ceph -s
- 停止该被踢出的 osd
# 在运行该 osd 的节点上执行下面命令
systemctl stop ceph-osd@{osd-id}
ceph -s # 此时能看到一个 osd 已经 down
- 删除该被停止的 osd
# 在任一节点上执行下面命令即可
# 删除 CRUSH 图对应的 osd 条目
ceph osd crush remove osd.{osd-id}
# 删除 osd 认证密钥
ceph auth del osd.{osd-id}
# 删除 osd
ceph osd rm {osd-num}
# 删除各节点的 ceph.conf 可能存在的 osd.{osd-id} 配置
- 设置 ceph 三个 noflag,禁止 ceph 自动迁移数据
# 在任一节点上执行下面命令即可
ceph osd set noout
ceph osd set nobackfill
ceph osd set norecover
ceph -s # 此时能看到这三个 flag,而且集群处于不健康状态
- 关闭这三台 ceph 服务器,撤掉已被删除 osd 对应的旧磁盘
- 启动这三台 ceph 服务器,此时 ceph 自动启动,三个 noflag 依旧有效;
- 取消之前设置的那三个 noflag
# 在任一节点上执行下面命令即可
ceph osd unset noout
ceph osd unset nobackfill
ceph osd unset norecover
- 直至 ceph 恢复健康状态
# 在任一节点上执行下面命令,查看集群状态
ceph -s
OSD 动态配置
PG 和 PGP
- 少于 5 个 OSD 时可把 pg_num 设置为 128
- OSD 数量在 5 到 10 个时,可把 pg_num 设置为 512
- OSD 数量在 10 到 50 个时,可把 pg_num 设置为 1024
- OSD 数量大于 50 时,<osd数量> * 100/副本数量(默认3),该值接近的 2 的 N 次方值
- 存储池的 PG 和 PGP 数量一般相等,都是 2 的 N 次方,只能增加,每次增加为当前的 2 倍
- 查看存储池的 PG 和 PGP 数量
ceph osd pool get {pool_name} pg_num
ceph osd pool get {pool_name} pgp_num
- 增加/设置存储池的 PG 和 PGP 数量
ceph osd pool set {pool_name} <cur_pg_num>*2
ceph osd pool set {pool_name} <cur_pgp_num>*2
- 获取所有卡在某状态的归置组统计信息
ceph pg dump_stuck inactive|unclean|stale|undersized|degraded
#Inactive (不活跃)归置组不能处理读写,因为它们在等待一个有最新数据的 OSD 复活且进入集群
#Unclean (不干净)归置组含有复制数未达到期望数量的对象,它们应该在恢复中
- 获取一个具体归置组的归置组图
ceph pg map {pg-id}
CEPH 服务器关机维护
转载于:https://my.oschina.net/colben/blog/1628751