在Nautilus
之前,Ceph
存储管理员没有访问任何内置的RBD
性能监视和指标收集工具的权限。虽然存储管理员可以监视高级集群或OSD IO
指标,但这通常过于粗略,无法确定RBD
镜像上运行负载的来源。假设存储管理员可以访问所有Ceph客户机节点,最好的解决方法是通过临时的外部工具从客户机节点轮询这些指标。
Nautilus
在OSD
和MGR
中合并了通用的度量收集框架,以提供内置的监视,并且在该框架之上构建了新的RBD
性能监视工具,以将各个RADOS
对象度量转换为针对IOPS
,吞吐量和性能的聚合RBD
镜像度量。这些指标都是在Ceph
集群本身内部生成和处理的,因此无需访问客户端节点即可获取指标。
请注意,由于直接从OSD
收集了指标,因此延迟指标将不是端到端的,而仅是OSD
内部的。
Prometheus Exporter
可以提取RBD
镜像指标的第一个Ceph
工具是通过内置的MGR Prometheus Exporter
模块。可以通过运行以下命令(如果尚未启用)来启用该模块:
$ ceph ceph mgr module enable prometheus
请注意,Prometheus exporter
默认未启用RBD
指标。要启用RBD
指标,必须为模块提供要对应的RBD
池列表。例如,“glance”,“cinder”
和“nova”
池的度量设置:
$ ceph config set mgr mgr/prometheus/rbd_stats_pools glance,cinder,nova
Prometheus Exp