1.说明
1.1介绍
OSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。
2. 常用操作
2.1 查看osd状态
$ ceph osd stat
5 osds: 5 up, 5 in
状态说明:
- 集群内(in)
- 集群外(out)
- 活着且在运行(up)
- 挂了且不再运行(down)
说明:
- 如果OSD活着,它也可以是 in或者 out 集群。如果它以前是 in 但最近 out 了, Ceph 会把其归置组迁移到其他OSD 。
- 如果OSD out 了, CRUSH 就不会再分配归置组给它。如果它挂了( down )其状态也应该是 out 。
- 如果OSD 状态为 down 且 in ,必定有问题,而且集群处于非健康状态。
2.2 查看osd映射信息
$ ceph osd dump
epoch 4971
fsid 97219550-d917-4154-b745-32bac14f99f2
created 2017-08-31 16:14:26.155920
modified 2017-11-15 13:48:39.834169
flags sortbitwise,recovery_deletes
crush_version 113
full_ratio 0.95
backfillfull_ratio 0.9
nearfull_ratio 0.85
require_min_compat_client jewel
min_compat_client jewel
require_osd_release luminous
pool 1 'rbd' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 2048 pgp_num 2048 last_change 3845 lfor 0/187 flags hashpspool stripe_width 0 application rbd
removed_snaps [1~3,7~8,11~5,17~4,1c~4,21~1]
pool 2 'test_data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 512 pgp_num 512 last_change 1575 lfor 0/227 flags hashpspool stripe_width 0 application cephfs
removed_snaps [1~3,5~4]
osd.0 up in weight 1 up_from 4959 up_thru 4966 down_at 4789 last_clean_interval [4551,4788) 10.1.1.34:6817/477028 10.1.1.34:6818/477028 10.1.1.34:6819/477028 10.1.1.34:6820/477028 exists,up 1c43b2d1-fc59-4e55-8511-2480964fef41
osd.1 up in weight 1 up_f

本文档详细介绍了Ceph集群中OSD(Object Storage Device)的运维操作,包括查看OSD状态、映射信息、目录树,以及如何下线、拉起、删除、加入OSD,调整OSD权重和参数等,旨在帮助管理员更好地管理和维护Ceph存储系统。
最低0.47元/天 解锁文章
1409

被折叠的 条评论
为什么被折叠?



