大数据——使用prometheus+grafana监控clickhouse集群相关指标

15 篇文章 2 订阅
6 篇文章 1 订阅

一、准备

1、prometheus下载
https://prometheus.io/download/#prometheus

2、上传:

/opt/module/prometheus-2.30.0.linux-amd64.tar.gz

二、安装配置prometheus

1、解压

tar -zxvf prometheus-2.30.0.linux-amd64.tar.gz -C /opt/module/

2、更改目录名

mv prometheus-2.30.0.linux-amd64 prometheus

3、创建启动脚本

touch prometheus-start.sh && chmod +x prometheus-start.sh
vim prometheus-start.sh

#!/bin/bash
/opt/module/prometheus/prometheus --config.file=/opt/module/prometheus/prometheus.yml > /dev/null 2>&1 &

4、创建关闭脚本

touch prometheus-stop.sh && chmod +x prometheus-stop.sh
vim prometheus-stop.sh
#!/bin/bash
ps -ef|grep prometheus | xargs kill `awk 'NR==1 {print $2}'`

5、验证

ps -ef |grep prometheus

在这里插入图片描述
浏览器打开IP:9090端口即可打开普罗米修斯自带的监控页面
在这里插入图片描述

三、安装Grafana

官网:https://grafana.com/grafana/download?pg=get&plcmt=selfmanaged-box1-cta1
1、安装

wget https://dl.grafana.com/enterprise/release/grafana-enterprise-8.1.4-1.x86_64.rpm
sudo yum install grafana-enterprise-8.1.4-1.x86_64.rpm

配置文件
/etc/grafana/grafana.ini

2、启动

systemctl daemon-reload
systemctl start grafana-server.service
systemctl enable grafana-server.service

3、访问grafana
浏览器访问IP:3000端口,即可打开grafana页面,默认用户名密码都是admin,初次登录会要求修改默认的登录密码
在这里插入图片描述
4、添加数据源
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

四、安装clickhouse相关插件

ClickHouse 从 v20.1.2.4 开始,内置了对接 Prometheus 的功能,可以将其作为 Prometheus 的 Endpoint 服务,从而自动的将 metrics、events 和 asynchronous_metrics 三张系统的表的数据发送给 Prometheus

1、安装插件

grafana-cli plugins install vertamedia-clickhouse-datasource

在这里插入图片描述

2、修改Clickhouse集群的config.xml,将注释去掉

vim /etc/clickhouse-server/config.xml
<prometheus>
    <endpoint>/metrics</endpoint>
    <port>9363</port>

    <metrics>true</metrics>
    <events>true</events>
    <asynchronous_metrics>true</asynchronous_metrics>
    <status_info>true</status_info>
</prometheus>
vim users.xml

<log_queries>1</log_queries>

3、重启集群

systemctl start clickhouse-server

配置prometheus.yml

global:
  scrape_interval:     15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
  evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.

alerting:
  alertmanagers:
  - static_configs:
    - targets:

rule_files:
   - "first_rules.yml"
   - "second_rules.yml"

scrape_configs:
  - job_name: 'clickhouse_9363'

    static_configs:
    - targets: ['10.15.1.23:9363','10.15.1.38:9363','10.15.1.39:9363']

重启prometheus

4、验证

curl http://*****:9363/metrics

在这里插入图片描述

5、配置数据源
!](https://img-blog.csdnimg.cn/f55c70f55f584169a1f66a6caa74cdf4.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAQ2Fyb25feGNi,size_20,color_FFFFFF,t_70,g_se,x_16)

6、导入监控模版
在这里插入图片描述
更多模版
https://grafana.com/grafana/dashboards/2515

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数据分析职业是一个多金的职业,数据分析职位是一个金饭碗的职位,前景美好,但是要全面掌握大数据分析技术,非常困难,大部分学员的痛点是不能快速找到入门要点,精准快速上手。本课程采用项目驱动的方式,以Spark3和Clickhouse技术为突破口,带领学员快速入门Spark3+Clickhouse数据分析,促使学员成为一名高效且优秀的大数据分析人才。学员通过本课程的学习,不仅可以掌握使用Python3进行Spark3数据分析,还会掌握利用Scala/java进行Spark数据分析,多语言并进,力求全面掌握;另外通过项目驱动,掌握Spark框架的精髓,教导Spark源码查看的技巧;会学到Spark性能优化的核心要点,成为企业急缺的数据分析人才;更会通过Clickhouse和Spark搭建OLAP引擎,使学员对大数据生态圈有一个更加全面的认识和能力的综合提升。真实的数据分析项目,学完即可拿来作为自己的项目经验,增加面试谈薪筹码。课程涉及内容:Ø  Spark内核原理(RDD、DataFrame、Dataset、Structed Stream、SparkML、SparkSQL)Ø  Spark离线数据分析(千万简历数据分析、雪花模型离线数仓构建)Ø  Spark特征处理及模型预测Ø  Spark实时数据分析(Structed Stream)原理及实战Ø  Spark+Hive构建离线数据仓库(数仓概念ODS/DWD/DWS/ADS)Ø  Clickhouse核心原理及实战Ø  Clickhouse engine详解Ø  Spark向Clickhouse导入简历数据,进行数据聚合分析Ø  catboost训练房价预测机器学习模型Ø  基于Clickhouse构建机器学习模型利用SQL进行房价预测Ø  Clickhouse集群监控,Nginx反向代理Grafana+Prometheus+Clickhouse+node_exporterØ  Spark性能优化Ø  Spark工程师面试宝典       课程组件:集群监控:福利:本课程凡是消费满359的学员,一律送出价值109元的实体书籍.

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值