![3bdeba082e16762a0cb103f8ce4dcc26.png](https://i-blog.csdnimg.cn/blog_migrate/9613a700e28f863152f92b86d9f089cb.jpeg)
ceph常用命令
检查集群健康状况
- 启动集群后、读写数据前,先检查下集群的健康状态
ceph health detail
- 查看pool下的文件
rbd ls
- 要观察集群内正发生的事件,打开一个新终端
ceph -w
输出信息里包含: 集群唯一标识符 集群健康状况 监视器图元版本和监视器法定人数状态 OSD 版本和 OSD 状态摘要 其内存储的数据和对象数量的粗略统计,以及数据总量等。
[root@admin-node ~]# ceph -w cluster 3561217d-a5b4-4f79-b38a-9e873eaeb018 #集群唯一标识符 health HEALTH_OK #集群健康状况 monmap e3: 3 mons at {node1=10.1.1.2:6789/0,node2=10.1.1.3:6789/0,node3=10.1.1.4:6789/0} #监视器图元版本和监视器法定人数状态 election epoch 8, quorum 0,1,2 node1,node2,node3 osdmap e24: 3 osds: 3 up, 3 in #OSD 版本和 OSD 状态摘要 pgmap v2395: 128 pgs, 7 pools, 860 bytes data, 44 objectsMB used, 42343 MB / 61410 MB availactive+clean2016-11-15 11:06:18.161961 mon.0 [INF] pgmap v2395: 128 pgs: 128 active+clean; 860 bytes data, 19066 MB used, 42343 MB / 61410 MB avail
新版本新增选项如下
-s, --status show cluster status -w, --watch watch live cluster changes --watch-debug watch debug events --watch-info watch info events --watch-sec watch security events --watch-warn watch warn events --watch-error watch error events --version, -v display version --verbose make verbose --concise make less verbose eg: ceph -w --watch-info
- 检查集群的使用情况
ceph df
|类型|解释| |:---|:---| |SIZE| 集群的总容量| |AVAIL| 集群的空闲空间总量| |RAW USED| 已用存储空间总量| |RAW USED| 已用存储空间比率。用此值参照 full ratio 和 near full ratio 来确保不会用尽集群空间。详情见存储容量。输出的 POOLS 段展示了存储池列表及各存储池的大致使用率。没有副本、克隆品和快照占用情况。例如,如果你把 1MB 的数据存储为对象,理论使用率将是 1MB ,但考虑到副本数、克隆数、和快照数,实际使用率可能是 2MB 或更多。 |NAME| 存储池名字| |ID| 存储池唯一标识符| |USED| 大概数据量,单位为 KB 、 MB 或 GB | |%USED| 各存储池的大概使用率| |Objects| 各存储池内的大概对象数。|
eg:[root@admin-node ~]# ceph dfGLOBAL: SIZE AVAIL RAW USED %RAW USED 61410M 42342M 19067M 31.05POOLS: NAME ID USED %USED MAX AVAIL OBJECTS rbd 0 0 0 21171M 0 .rgw.root 1 848 0 21171M 3 .rgw.control 2 0 0 21171M 8 .rgw 3 0 0 21171M 0 .rgw.gc 4 0 0 21171M 32 data 5 12 0 21171M 1 .users.uid 6 0 0
新版本新增ceph osd df 命令,可以详细列出集群每块磁盘的使用情况,包括大小、权重、使用多少空间、使用率
[root@admin-node ~]# ceph osd dfID WEIGHT REWEIGHT SIZE USE AVAIL %USE VAR 0.01999 1.00000 20470M 6356M 14113M 31.05 1.000.01999 1.00000 20470M 6355M 14114M 31.05 1.000.01999 1.00000 20470M 6356M 14113M 31.05 1.00 TOTAL 61410M 19068M 42341M 31.05 MIN/MAX VAR: 1.00/1.00 STDDEV: 0
- 检查集群状态
[root@admin-node ~]# ceph status cluster 3561217d-a5b4-4f79-b38a-9e873eaeb018 health HEALTH_OK monmap e3: 3 mons at {node1=10.1.1.2:6789/0,node2=10.1.1.3:6789/0,node3=10.1.1.4:6789/0} election epoch 8, quorum 0,1,2 node1,node2,node3 osdmap e24: 3 osds: 3 up, 3 in pgmap v2457: 128 pgs, 7 pools, 860 bytes data, 44 objectsMB used, 42341 MB / 61410 MB availactive+clean
- 检查MONITOR状态
[root@admin-node ~]# ceph mon state3: 3 mons at {node1=10.1.1.2:6789/0,node2=10.1.1.3:6789/0,node3=10.1.1.4:6789/0}, election epoch 8, quorum 0,1,2 node1,node2,node3或者:ceph mon dump例如:[root@admin-node ~]# ceph mon dumpdumped monmap epoch 3epoch 3fsid 3561217d-a5b4-4f79-b38a-9e873eaeb018last_changed 2016-11-14 10:52:00.887330created 0.0000000: 10.1.1.2:6789/0 mon.node11: 10.1.1.3:6789/0 mon.node22: 10.1.1.4:6789/0 mon.node3
- 检查监视器的法定人数状态
[root@admin-node ~]# ceph quorum_status{"election_epoch":8,"quorum":[0,1,2],"quorum_names":["node1