Clickhouse 监控之 Prometheus + Grafana

作者: LemonNan

原文地址: https://mp.weixin.qq.com/s/fb63XndhUVpQnwJvinAMOw

注: 转载需注明作者及原文地址

介绍

监控原理:clickhouse 监控的原理为 Clickhouse 本身的一些系统指标会存入它自己的 system.events 和 system.metrics 表中,所以在做监控的时候,只需要把这两个表的数据通过接口暴露出去即可。

本文将基于此介绍如何 轻松搭建 Clickhouse + Prometheus + Grafana 的监控

友情提醒:本篇组件均使用 docker 进行部署

先来几张效果图:

在这里插入图片描述
在这里插入图片描述

操作流程

修改 Clickhouse 配置

将 clickhouse 本身的配置从容器内复制出来,容器内的路径为 /etc/clickhouse-server 然后在 config.xml 中搜索 prometheus, 将前后的注释去掉。

在这里插入图片描述

配置说明

这里的 metrics 是 Clickhouse 的 system.metrics 表记录

events 是 Clickhouse 的 system.events 表记录

启动 Clickhouse 容器

{localConfig} 为你的 Clickhouse 配置文件路径

# 9363 为 prometheus 的访问端口
docker run -d --name clickhouse -p 9363:9363 -v {localConfig}:/etc/clickhouse-server --ulimit nofile=262144:262144 clickhouse/clickhouse-server

验证 Clickhouse 的 prometheus 端口

启动容器后,因为映射了9363端口,所以可以使用 curl localhost:9363 进行本机验证,如果成功的话,会输出很多下面的数据

在这里插入图片描述

增加 Prometheus 配置

创建 prometheus.yml

global:
  scrape_interval:     15s 
  evaluation_interval: 15s 

alerting:
  alertmanagers:
  - static_configs:
    - targets:

rule_files:
   - "test.yml"

scrape_configs:
  - job_name: 'ckServer_9363'

    static_configs:
    - targets: ['172.16.16.4:9363']

启动 Prometheus

{localConfig} 为 prometheus.yml 路径

{localData} 为存放数据路径

注意:这里要使用 root 用户,否则会出现无权限启动失败

# 启动 prometheus
docker run -d --name mypro -p 9090:9090 -v {localConfig}:/etc/prometheud.yml -v {localData}:/prometheus --user "root" prom/prometheus

验证 prometheus

访问地址: {ip}:9090/targets,出现下面的界面表示正确安装

在这里插入图片描述

安装 Grafana

{localData} 为本地存放 grafana 数据的地方

注:这里依旧使用 root 用户

# 由于 3000端口有其他应用,使用3999端口
docker run -d --name mygra -p 3999:3000 -v {localData}:/var/lib/grafana --user "root" grafana/grafana

访问: {ip}:3999,出现如下界面则表示正常安装,默认账号密码都是 admin

在这里插入图片描述

Grafana 配置 Prometheus

进入到 Grafana后添加 Data Source,选择 Prometheus,配置如下

172.16.16.4 为本机内网地址

在这里插入图片描述

添加指标并测试

这里设置的指标为 SelectQuery - Select的次数 ,时间跨度 1min

在执行几个查询后,界面上会出现次数变更

在这里插入图片描述

将指标改成 InsertBytes 后,观察插入数据前和插入数据后的区别

插入前

在这里插入图片描述

插入后

在这里插入图片描述

可以看到因为刚才的文件导入,插入的字节数急速飙升。

插件

一个个指标查找以及页面布局,确实会令人头非常的大,幸好还有 插件大法

在 Grafana 中安装一个 Clickhouse 插件

在 Plugin 中搜索 Clickhouse 会搜到两个插件,本文用的是 Vertamedia 那个,安装完之后设置 Clickhouse 地址就完成数据源创建,接着通过 “+” 的 Import,输入 ID 13606,就能出现开头的效果。

在这里插入图片描述

总结

到这里,Clickhouse 基于 Prometheus 和 Grafana 的监控就大致搭建完毕了,大家可以根据自己的需求监控不同的指标。

最后

欢迎搜索公众号 LemonCode , 一起交流学习!

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
数据分析职业是一个多金的职业,数据分析职位是一个金饭碗的职位,前景美好,但是要全面掌握大数据分析技术,非常困难,大部分学员的痛点是不能快速找到入门要点,精准快速上手。本课程采用项目驱动的方式,以Spark3和Clickhouse技术为突破口,带领学员快速入门Spark3+Clickhouse数据分析,促使学员成为一名高效且优秀的大数据分析人才。学员通过本课程的学习,不仅可以掌握使用Python3进行Spark3数据分析,还会掌握利用Scala/java进行Spark数据分析,多语言并进,力求全面掌握;另外通过项目驱动,掌握Spark框架的精髓,教导Spark源码查看的技巧;会学到Spark性能优化的核心要点,成为企业急缺的数据分析人才;更会通过Clickhouse和Spark搭建OLAP引擎,使学员对大数据生态圈有一个更加全面的认识和能力的综合提升。真实的数据分析项目,学完即可拿来作为自己的项目经验,增加面试谈薪筹码。课程涉及内容:Ø  Spark内核原理(RDD、DataFrame、Dataset、Structed Stream、SparkML、SparkSQL)Ø  Spark离线数据分析(千万简历数据分析、雪花模型离线数仓构建)Ø  Spark特征处理及模型预测Ø  Spark实时数据分析(Structed Stream)原理及实战Ø  Spark+Hive构建离线数据仓库(数仓概念ODS/DWD/DWS/ADS)Ø  Clickhouse核心原理及实战Ø  Clickhouse engine详解Ø  Spark向Clickhouse导入简历数据,进行数据聚合分析Ø  catboost训练房价预测机器学习模型Ø  基于Clickhouse构建机器学习模型利用SQL进行房价预测Ø  Clickhouse集群监控,Nginx反向代理Grafana+Prometheus+Clickhouse+node_exporterØ  Spark性能优化Ø  Spark工程师面试宝典       课程组件:集群监控:福利:本课程凡是消费满359的学员,一律送出价值109元的实体书籍.

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

柠檬楠

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值