openstack常用运维命令_CEPH系列之日常运维:常用命令

本文介绍了OpenStack Ceph集群的常用运维命令,包括检查集群健康状况、查看pool下的文件、检查集群的使用情况和状态。通过这些命令,可以了解集群的健康状态、存储使用情况以及MONITOR的状态,确保集群稳定运行。
摘要由CSDN通过智能技术生成
3bdeba082e16762a0cb103f8ce4dcc26.png

ceph常用命令

检查集群健康状况

  • 启动集群后、读写数据前,先检查下集群的健康状态
ceph health detail
  • 查看pool下的文件
rbd ls 
  • 要观察集群内正发生的事件,打开一个新终端
ceph -w

输出信息里包含: 集群唯一标识符 集群健康状况 监视器图元版本和监视器法定人数状态 OSD 版本和 OSD 状态摘要 其内存储的数据和对象数量的粗略统计,以及数据总量等。

[root@admin-node ~]# ceph -w cluster 3561217d-a5b4-4f79-b38a-9e873eaeb018 #集群唯一标识符 health HEALTH_OK #集群健康状况 monmap e3: 3 mons at {node1=10.1.1.2:6789/0,node2=10.1.1.3:6789/0,node3=10.1.1.4:6789/0} #监视器图元版本和监视器法定人数状态 election epoch 8, quorum 0,1,2 node1,node2,node3 osdmap e24: 3 osds: 3 up, 3 in #OSD 版本和 OSD 状态摘要 pgmap v2395: 128 pgs, 7 pools, 860 bytes data, 44 objectsMB used, 42343 MB / 61410 MB availactive+clean2016-11-15 11:06:18.161961 mon.0 [INF] pgmap v2395: 128 pgs: 128 active+clean; 860 bytes data, 19066 MB used, 42343 MB / 61410 MB avail

新版本新增选项如下

-s, --status show cluster status -w, --watch watch live cluster changes --watch-debug watch debug events --watch-info watch info events --watch-sec watch security events --watch-warn watch warn events --watch-error watch error events --version, -v display version --verbose make verbose --concise make less verbose eg: ceph -w --watch-info
  • 检查集群的使用情况
ceph df

|类型|解释| |:---|:---| |SIZE| 集群的总容量| |AVAIL| 集群的空闲空间总量| |RAW USED| 已用存储空间总量| |RAW USED| 已用存储空间比率。用此值参照 full ratio 和 near full ratio 来确保不会用尽集群空间。详情见存储容量。输出的 POOLS 段展示了存储池列表及各存储池的大致使用率。没有副本、克隆品和快照占用情况。例如,如果你把 1MB 的数据存储为对象,理论使用率将是 1MB ,但考虑到副本数、克隆数、和快照数,实际使用率可能是 2MB 或更多。 |NAME| 存储池名字| |ID| 存储池唯一标识符| |USED| 大概数据量,单位为 KB 、 MB 或 GB | |%USED| 各存储池的大概使用率| |Objects| 各存储池内的大概对象数。|

eg:[root@admin-node ~]# ceph dfGLOBAL: SIZE AVAIL RAW USED %RAW USED 61410M 42342M 19067M 31.05POOLS: NAME ID USED %USED MAX AVAIL OBJECTS rbd 0 0 0 21171M 0 .rgw.root 1 848 0 21171M 3 .rgw.control 2 0 0 21171M 8 .rgw 3 0 0 21171M 0 .rgw.gc 4 0 0 21171M 32 data 5 12 0 21171M 1 .users.uid 6 0 0

新版本新增ceph osd df 命令,可以详细列出集群每块磁盘的使用情况,包括大小、权重、使用多少空间、使用率

[root@admin-node ~]# ceph osd dfID WEIGHT REWEIGHT SIZE USE AVAIL %USE VAR 0.01999 1.00000 20470M 6356M 14113M 31.05 1.000.01999 1.00000 20470M 6355M 14114M 31.05 1.000.01999 1.00000 20470M 6356M 14113M 31.05 1.00 TOTAL 61410M 19068M 42341M 31.05 MIN/MAX VAR: 1.00/1.00 STDDEV: 0
  • 检查集群状态
[root@admin-node ~]# ceph status cluster 3561217d-a5b4-4f79-b38a-9e873eaeb018 health HEALTH_OK monmap e3: 3 mons at {node1=10.1.1.2:6789/0,node2=10.1.1.3:6789/0,node3=10.1.1.4:6789/0} election epoch 8, quorum 0,1,2 node1,node2,node3 osdmap e24: 3 osds: 3 up, 3 in pgmap v2457: 128 pgs, 7 pools, 860 bytes data, 44 objectsMB used, 42341 MB / 61410 MB availactive+clean
  • 检查MONITOR状态
[root@admin-node ~]# ceph mon state3: 3 mons at {node1=10.1.1.2:6789/0,node2=10.1.1.3:6789/0,node3=10.1.1.4:6789/0}, election epoch 8, quorum 0,1,2 node1,node2,node3或者:ceph mon dump例如:[root@admin-node ~]# ceph mon dumpdumped monmap epoch 3epoch 3fsid 3561217d-a5b4-4f79-b38a-9e873eaeb018last_changed 2016-11-14 10:52:00.887330created 0.0000000: 10.1.1.2:6789/0 mon.node11: 10.1.1.3:6789/0 mon.node22: 10.1.1.4:6789/0 mon.node3
  • 检查监视器的法定人数状态
[root@admin-node ~]# ceph quorum_status{"election_epoch":8,"quorum":[0,1,2],"quorum_names":["node1
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值