prometheus联邦

联邦允许Prometheus实例从另一个Prometheus实例上抓取数据。

联邦有不同的使用场景。通常,它用于实现可伸缩的Prometheus监控,或将一个服务相关指标从一个Prometheus拉取到另一个中

为了扩展单个Prometheus的采集能力和存储能力,Prometheus引入了联邦概念。多个Prometheus节点组成两级联邦结构,上面一层是联邦节点,负责定时从下面的节点获取数据并汇总,下面的Promethes可以负责不同区域/不同服务的数据采集。其架构图如下所示:

在这里插入图片描述
环境
192.168.1.21 Prometheus联邦节点
192.168.1.22 Prometheus节点1
192.168.1.23 Prometheus节点2
192.168.1.29 node-exporter
192.168.1.30 node-exporter

1.安装prometheus

prometheus 安装脚本

root@k8s-etcd03:~# cat prometheus-install.sh 
#!/bin/bash
VERSION="2.37.8"
PKG="prometheus-${VERSION}.linux-amd64.tar.gz"
S_DIR="prometheus-${VERSION}.linux-amd64"
mkdir -p /apps
tar xvf ${PKG} -C /apps/
ln -sv /apps/${S_DIR} /apps/prometheus
\cp ./prometheus.service /etc/systemd/system/prometheus.service 
systemctl   daemon-reload &&  systemctl  restart prometheus && systemctl  enable  prometheus


2.配置prometheus

1.22上配置Prometheus节点1抓取192.168.1.29上node-exporter的数据

- job_name: node-1.29
    static_configs:
      - targets: ["192.168.1.29:9100"]
        labels:
          env: cluster1

1.23上配置Prometheus节点2抓取192.168.1.30上node-exporter的数据

- job_name: node-1.30
    static_configs:
      - targets: ["192.168.1.30:9100"]
        labels:
          env: cluster1

1.21 prometheus联邦添加配置

   - job_name: 'prometheus-federate'
    scrape_interval: 10s
    metrics_path: /federate
    honor_labels: true
    params:
      'match[]':        #match[]用指定查询条件,即只从其他Prometheus抓取符合条件的数据
      - '{job="prometheus"}'    #job用于匹配指定名称的job,这里表示抓取prometheus job对应的指标数据
      - '{__name__=~"job:.*"}'  #__name__表示匹配指定名称的指标数据,这里表示抓取以job开头的指标数据
      - '{job=~"node.*"}'       #抓取以node开头的job的指标
    static_configs:
      - targets: ["192.168.1.22:9090"]  #指定Prometheus地址

  - job_name: 'prometheus-federate23'
    scrape_interval: 10s
    metrics_path: /federate
    honor_labels: true
    params:
      'match[]':        #match[]用指定查询条件,即只从其他Prometheus抓取符合条件的数据
      - '{job="prometheus"}'    #job用于匹配指定名称的job,这里表示抓取prometheus job对应的指标数据
      - '{__name__=~"job:.*"}'  #__name__表示匹配指定名称的指标数据,这里表示抓取以job开头的指标数据
      - '{job=~"node.*"}'       #抓取以node开头的job的指标
    static_configs:
      - targets: ["192.168.1.23:9090"]  #指定Prometheus地址

查看联邦节点:
在这里插入图片描述

promethes导入模板 1107
在这里插入图片描述
后面要加服务器直接在 promethes 节点添加即可

k8s集群外prometheus联邦采集集群内的node节点和coredns

k8s中部署的prometheus,给prometheus配置svc,使用nodeport 访问k8s内部prometheus,

root@k8s-node01:~# kubectl get svc -n monitoring prometheus
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
prometheus NodePort 10.100.3.228 9090:30090/TCP 4d2h

通过node 的30090端口 ,添加配置到联邦节点
prometheu联邦添加k8s中prometheus配置

- job_name: 'k8s-data-federate'   #抓取k8s集群node
    scrape_interval: 10s
    metrics_path: /federate
    honor_labels: true
    params:
      'match[]':        #match[]用指定查询条件,即只从其他Prometheus抓取符合条件的数据
      - '{job="prometheus"}'    #job用于匹配指定名称的job,这里表示抓取prometheus job对应的指标数据
      - '{__name__=~"job:.*"}'  #__name__表示匹配指定名称的指标数据,这里表示抓取以job开头的指标数据
      - '{__name__=~"node.*"}'       #抓取以node开头的job的指标
    static_configs:
      - targets: ["192.168.1.27:30090"] #指定Prometheus地址

  - job_name: 'k8s-data-federate-coredns'  抓取k8s集群coredns
    scrape_interval: 10s
    metrics_path: /federate
    honor_labels: true
    params:
      'match[]':        #match[]用指定查询条件,即只从其他Prometheus抓取符合条件的数据
      - '{job="kubernetes-service-endpoints"}'  #job用于匹配指定名称的job,这里表示抓取prometheus job对应的指标数据
      - '{__name__=~"job:.*"}'  #__name__表示匹配指定名称的指标数据,这里表示抓取以job开头的指标数据
      - '{job=~"node.*"}'       #抓取以node开头的job的指标
    static_configs:
      - targets: ["192.168.1.27:30090"] #指定Prometheus地址

点击出现数据就抓取到了
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入代码片在这里插入图片描述
coredns
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
一、prometheus简介 Prometheus是一个开源的系统监控和告警系统,现在已经加入到CNCF基金会,成为继k8s之后第二个在CNCF维护管理的项目,在kubernetes容器管理系统中,通常会搭配prometheus进行监控,prometheus支持多种exporter采集数据,还支持通过pushgateway进行数据上报,Prometheus再性能上可支撑上万台规模的集群。 二、prometheus架构图 三、prometheus组件介绍 1.Prometheus Server: 用于收集和存储时间序列数据。 2.Client Library: 客户端库,检测应用程序代码,当Prometheus抓取实例的HTTP端点时,客户端库会将所有跟踪的metrics指标的当前状态发送到prometheus server端。 3.Exporters: prometheus支持多种exporter,通过exporter可以采集metrics数据,然后发送到prometheus server端 4.Alertmanager: 从 Prometheus server 端接收到 alerts 后,会进行去重,分组,并路由到相应的接收方,发出报警,常见的接收方式有:电子邮件,微信,钉钉, slack等。 5.Grafana:监控仪表盘 6.pushgateway: 各个目标主机可上报数据到pushgatewy,然后prometheus server统一从pushgateway拉取数据。 四、课程亮点 五、效果图展示 六、讲师简介 先超(lucky):高级运维工程师、资深DevOps工程师,在互联网上市公司拥有多年一线运维经验,主导过亿级pv项目的架构设计和运维工作 主要研究方向: 1.云计算方向:容器 (kubernetes、docker),虚拟化(kvm、Vmware vSphere),微服务(istio),PaaS(openshift),IaaS(openstack)等2.系统/运维方向:linux系统下的常用组件(nginx,tomcat,elasticsearch,zookeeper,kafka等),DevOps(Jenkins+gitlab+sonarqube+nexus+k8s),CI/CD,监控(zabbix、prometheus、falcon)等 七、课程大纲
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值