Kubernetes 【监控】1. Metrics Server、Aggregator APIServer和Prometheus监控体系


1. 背景

Prometheus 项目与 Kubernetes 项目一样,也来自于 Google 的 Borg 体系,它的原型系统,叫作 BorgMon,是一个几乎与 Borg 同时诞生的内部监控系统。而 Prometheus 项目的发起原因也跟 Kubernetes 很类似,都是希望通过对用户更友好的方式,将 Google 内部系统的设计理念,传递给用户和开发者。

2. 简介

作为一个监控系统,Prometheus 项目的作用和工作方式,其实可以用如下所示的一张官方示意图来解释。
在这里插入图片描述
可以看到,Prometheus 项目工作的核心,是使用 Pull (抓取)的方式去搜集被监控对象的 Metrics 数据(监控指标数据),然后,再把这些数据保存在一个 TSDB (时间序列数据库,比如 OpenTSDB、InfluxDB 等)当中,以便后续可以按照时间进行检索。

有了这套核心监控机制, Prometheus 剩下的组件就是用来配合这套机制的运行。比如 Pushgateway,可以允许被监控对象以 Push 的方式向 Prometheus 推送 Metrics 数据。而 Alertmanager,则可以根据 Metrics 信息灵活地设置报警。当然, Prometheus 最受用户欢迎的功能,还是通过 Grafana 对外暴露出的、可以灵活配置的监控数据可视化界面。
有了 Prometheus 之后,我们就可以按照 Metrics 数据的来源,来对 Kubernetes 的监控体系做一个汇总了。

3. 监控对象类型

第一种 Metrics,是宿主机的监控数据。这部分数据的提供,需要借助一个由 Prometheus 维护的Node Exporter 工具。一般来说,Node Exporter 会以 DaemonSet 的方式运行在宿主机上。其实,所谓的 Exporter,就是代替被监控对象来对 Prometheus 暴露出可以被“抓取”的 Metrics 信息的一个辅助进程。

Node Exporter 可以暴露给 Prometheus 采集的 Metrics 数据, 也不单单是节点的负载(Load)、CPU 、内存、磁盘以及网络这样的常规信息,它的 Metrics 指标可以说是“包罗万象”,你可以查看这个列表来感受一下。

第二种 Metrics,是来自于 KubernetesAPI Serverkubelet 等组件的 /metrics API。除了常规的 CPU、内存的信息外,这部分信息还主要包括了各个组件的核心监控指标。比如,对于 API Server 来说,它就会在 /metrics API 里,暴露出各个 Controller 的工作队列(Work Queue)的长度、请求的 QPS 和延迟数据等等。这些信息,是检查 Kubernetes 本身工作情况的主要依据。

第三种 Metrics,是 Kubernetes 相关的监控数据。这部分数据,一般叫作 Kubernetes 核心监控数据(core metrics)。这其中包括了 Pod、Node、容器、Service 等主要 Kubernetes 核心概念的 Metrics

其中,容器相关的 Metrics 主要来自于 kubelet 内置的 cAdvisor 服务。在 kubelet 启动后,cAdvisor 服务也随之启动,而它能够提供的信息,可以细化到每一个容器的 CPU 、文件系统、内存、网络等资源的使用情况。

4. Metrics Server简介

需要注意的是,这里提到的 Kubernetes 核心监控数据,其实使用的是 Kubernetes 的一个非常重要的扩展能力,叫作 Metrics Server。我们可以通过在--api-server标志设置为 true的情况下运行 Heapster 的资源指标 API实现

Metrics ServerKubernetes 社区的定位,其实是用来取代 Heapster 这个项目的。在 Kubernetes 项目发展的初期,Heapster 是用户获取 Kubernetes 监控数据(比如 PodNode 的资源使用情况) 的主要渠道。而后面提出来的 Metrics Server,则把这些信息,通过标准的 Kubernetes API 暴露了出来。这样,Metrics 信息就跟 Heapster 完成了解耦,允许 Heapster 项目慢慢退出舞台。

而有了 Metrics Server 之后,用户就可以通过标准的 Kubernetes API 来访问到这些监控数据了。比如,下面这个 URL

http://127.0.0.1:8001/apis/metrics.k8s.io/v1beta1/namespaces/<namespace-name>/pods/<pod-name>

当你访问这个 Metrics API 时,它就会为你返回一个 Pod 的监控数据,而这些数据,其实是从 kubeletSummary API (即 <kubelet_ip>:<kubelet_port>/stats/summary)采集而来的。Summary API 返回的信息,既包括了 cAdVisor 的监控数据,也包括了 kubelet 本身汇总的信息。

需要指出的是, Metrics Server 并不是 kube-apiserver 的一部分,而是通过 Aggregator 这种插件机制,在独立部署的情况下同 kube-apiserver 一起统一对外服务的。

系统资源的采集均使用Metrics-Server服务,可以通过Metrics-Server服务采集节点和Pod的内存、磁盘、CPU和网络的使用率等信息
特性:

  • Metrics API 只可以查询当前的度量数据,并不保存历史数据
  • Metrics API URI 为 /apis/metrics.k8s.io/,在 k8s.io/metrics维护
  • 必须部署 metrics-server 才能使用该 API,metrics-server 通过调用 Kubelet Summary API 获取数据

5. Metrics Server部署

5.1 下载并解压Metrics-Server

wget https://github.com/kubernetes-sigs/metrics-server/archive/v0.3.6.tar.gz
tar -zxvf v0.3.6.tar.gz 

5.2 修改Metrics-Server配置文件

$ cd metrics-server-0.3.6/deploy/1.8+/
$ vim metrics-server-deployment.yaml

---
apiVersion: v1
kind: ServiceAccount
metadata:
  name: metrics-server
  namespace: kube-system
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: metrics-server
  namespace: kube-system
  labels:
    k8s-app: metrics-server
spec:
  selector:
    matchLabels:
      k8s-app: metrics-server
  template:
    metadata:
      name: metrics-server
      labels:
        k8s-app: metrics-server
    spec:
      serviceAccountName: metrics-server
      volumes:
      # mount in tmp so we can safely use from-scratch images and/or read-only containers
      - name: tmp-dir
        emptyDir: {}
      containers:
      - name: metrics-server
        # 修改image 和 imagePullPolicy
        image: mirrorgooglecontainers/metrics-server-amd64:v0.3.6
        imagePullPolicy: IfNotPresent
        # 新增command配置
        command:
        - /metrics-server
        - --kubelet-insecure-tls
        - --kubelet-preferred-address-types=InternalDNS,InternalIP,ExternalDNS,ExternalIP,Hostname
        volumeMounts:
        - name: tmp-dir
          mountPath: /tmp
        # 新增resources配置
        resources:
          limits:
            cpu: 300m
            memory: 200Mi
          requests:
            cpu: 200m
            memory: 100Mi

5.3 安装Metrics-Server

kubectl apply -f metrics-server-0.3.6/deploy/1.8+/

5.4 查看metric-server监控信息

$ kubectl get apiservice |grep metric
v1beta1.metrics.k8s.io                 kube-system/metrics-server   True        16h


$ kubectl api-resources  |grep metric
nodes                                          metrics.k8s.io/v1beta1                 false        NodeMetrics
pods                                           metrics.k8s.io/v1beta1                 true         PodMetrics


$ kubectl top node
NAME     CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%   
master   332m         16%    1222Mi          64%       
node1    192m         9%     845Mi           44%       
node2    202m         10%    855Mi           45%     

$ kubectl top pod
NAME                                     CPU(cores)   MEMORY(bytes)   
image-bouncer-webhook-57f5ff98f4-hwtlm   1m           4Mi             
$ kubectl top pod -n kube-system
NAME                                       CPU(cores)   MEMORY(bytes)   
calico-kube-controllers-57fc9c76cc-knw5x   1m           24Mi            
calico-node-9nqnh                          43m          40Mi            
calico-node-p7xcc                          43m          62Mi            
calico-node-zqfcb                          40m          55Mi            
coredns-74ff55c5b-nvmcs                    7m           17Mi            
coredns-74ff55c5b-psm62                    4m           8Mi             
etcd-master                                23m          59Mi            
kube-apiserver-master                      88m          292Mi           
kube-controller-manager-master             28m          46Mi            
kube-proxy-6khfc                           1m           24Mi            
kube-proxy-b6gjh                           1m           16Mi            
kube-proxy-dtc84                           1m           12Mi            
kube-scheduler-master                      4m           18Mi            
metrics-server-b7cff9c67-jsrrx             1m           11Mi      
  
通过API方式获取监控值
$ kubectl get --raw "/apis/metrics.k8s.io/v1beta1/nodes" | jq
{
  "kind": "NodeMetricsList",
  "apiVersion": "metrics.k8s.io/v1beta1",
  "metadata": {
    "selfLink": "/apis/metrics.k8s.io/v1beta1/nodes"
  },
  "items": [
    {
      "metadata": {
        "name": "master",
        "selfLink": "/apis/metrics.k8s.io/v1beta1/nodes/master",
        "creationTimestamp": "2021-09-02T15:47:07Z"
      },
      "timestamp": "2021-09-02T15:46:26Z",
      "window": "30s",
      "usage": {
        "cpu": "287982098n",
        "memory": "1156520Ki"
      }
    },
    {
      "metadata": {
        "name": "node1",
        "selfLink": "/apis/metrics.k8s.io/v1beta1/nodes/node1",
        "creationTimestamp": "2021-09-02T15:47:07Z"
      },
      "timestamp": "2021-09-02T15:46:30Z",
      "window": "30s",
      "usage": {
        "cpu": "208820792n",
        "memory": "866488Ki"
      }
    },
    {
      "metadata": {
        "name": "node2",
        "selfLink": "/apis/metrics.k8s.io/v1beta1/nodes/node2",
        "creationTimestamp": "2021-09-02T15:47:07Z"
      },
      "timestamp": "2021-09-02T15:46:31Z",
      "window": "30s",
      "usage": {
        "cpu": "191420274n",
        "memory": "878348Ki"
      }
    }
  ]
}

Metrics-Server收集到节点信息,说明Metrics-Server安装成功

6. Aggregator APIServer

6.1 简介

API Aggregation 允许在不修改 Kubernetes 核心代码的同时扩展 Kubernetes API,即将第三方服务注册到 Kubernetes API 中,这样就可以通过 Kubernetes API 来访问外部服务。

备注:另外一种扩展 Kubernetes API 的方法是使用 CustomResourceDefinition (CRD)。

6.2 何时使用 Aggregation

满足以下条件时使用 API Aggregation满足以下条件时使用独立 API
您的 API 是声明式的。您的 API 不适合声明式模型。
您希望使用kubectl.kubectl 不需要支持
您希望在 Kubernetes UI(例如仪表板)中查看新类型以及内置类型。不需要 Kubernetes UI 支持。
您正在开发新的 API。您已经有一个程序可以为您的 API 提供服务并且运行良好。
您愿意接受 Kubernetes 对 REST 资源路径(例如 API 组和命名空间)施加的格式限制。(请参阅API 概述。)您需要具有特定的 REST 路径才能与已定义的 REST API 兼容。
您的资源自然地限定于集群或集群的命名空间。集群或命名空间范围的资源不适合;您需要控制资源路径的细节。
您想重用Kubernetes API 支持功能。您不需要这些功能。

这里,Aggregator APIServer 的工作原理,可以用如下所示的一幅示意图来表示清楚:
在这里插入图片描述
参考:https://www.jetstack.io/blog/resource-and-custom-metrics-hpa-v2/

可以看到,当 KubernetesAPI Server 开启了 Aggregator 模式之后,你再访问 apis/metrics.k8s.io/v1beta1 的时候,实际上访问到的是一个叫作 kube-aggregator 的代理。而 kube-apiserver,正是这个代理的一个后端;而 Metrics Server,则是另一个后端。

而且,在这个机制下,你还可以添加更多的后端给这个 kube-aggregator。所以 kube-aggregator 其实就是一个根据 URL 选择具体的 API 后端的代理服务器。通过这种方式,我们就可以很方便地扩展 Kubernetes 的 API 了。

6.3 开启Aggregator

Aggregator 模式的开启也非常简单:

  • 如果你是使用 kubeadm 或者官方的 kube-up.sh 脚本部署 Kubernetes 集群的话,Aggregator模式就是默认开启的;
  • 如果是手动 DIY 搭建的话,你就需要在 kube-apiserver 的启动参数里加上如下所示的配置:
--requestheader-client-ca-file=<path to aggregator CA cert>
--requestheader-allowed-names=front-proxy-client
--requestheader-extra-headers-prefix=X-Remote-Extra-
--requestheader-group-headers=X-Remote-Group
--requestheader-username-headers=X-Remote-User
--proxy-client-cert-file=<path to aggregator proxy cert>
--proxy-client-key-file=<path to aggregator proxy key>

而这些配置的作用,主要就是为 Aggregator 这一层设置对应的 Key 和 Cert 文件。而这些文件的生成,就需要你自己手动完成了,具体流程请参考这篇官方文档

Aggregator 功能开启之后,你只需要将 Metrics Server 的 YAML 文件部署起来,如下所示:

$ git clone https://github.com/kubernetes-incubator/metrics-server
$ cd metrics-server
$ kubectl create -f deploy/1.8+/

接下来,你就会看到 metrics.k8s.io 这个 API 出现在了你的 Kubernetes API 列表当中。

在理解了 Prometheus 关心的三种监控数据源,以及 Kubernetes 的核心 Metrics 之后,作为用户,你其实要做的就是将 Prometheus Operator 在 Kubernetes 集群里部署起来。

6.4 创建扩展 API

  1. 确保开启 APIService API(默认开启,可用 kubectl get apiservice 命令验证)
  2. 创建 RBAC 规则
  3. 创建一个 namespace,用来运行扩展的 API 服务
  4. 创建 CA 和证书,用于 https
  5. 创建一个存储证书的 secret
  6. 创建一个部署扩展 API 服务的 deployment,并使用上一步的 secret 配置证书,开启 https 服务
  7. 确保你的扩展 apiserver 从该卷中加载了那些证书,并在 HTTPS 握手过程中使用它们
  8. 创建一个userClusterRoleClusterRoleBinding
  9. 用你命名空间中的服务账号创建一个 Kubernetes 集群角色绑定,绑定到你创建的角色上
  10. 用你命名空间中的服务账号创建一个 Kubernetes 集群角色绑定,绑定到 system:auth-delegator 集群角色,以将 auth 决策委派给 Kubernetes 核心 API 服务器。
  11. 以你命名空间中的服务账号创建一个 Kubernetes 集群角色绑定,绑定到 extension-apiserver-authentication-reader 角色。 这将让你的扩展 api-server能够访问 extension-apiserver-authentication configmap
  12. 创建一个非 namespaceapiservice,注意设置 spec.caBundle
  13. 运行 kubectl get <resource-name>,正常应该返回 No resources found.

可以使用 apiserver-builder 工具自动化上面的步骤:

# 初始化项目
$ cd GOPATH/src/github.com/my-org/my-project
$ apiserver-boot init repo --domain <your-domain>
$ apiserver-boot init glide

# 创建资源
$ apiserver-boot create group version resource --group <group> --version <version> --kind <Kind>

# 编译
$ apiserver-boot build executables
$ apiserver-boot build docs

# 本地运行
$ apiserver-boot run local

# 集群运行
$ apiserver-boot run in-cluster --name nameofservicetorun --namespace default --image gcr.io/myrepo/myimage:mytag
$ kubectl create -f sample/<type>.yaml 

6.5 示例

开发sameple-apiserver详解
sample-apiserverapiserver-builder/example

7. 总结

介绍了 Prometheus 项目在这套体系中的地位,讲解了以 Prometheus 为核心的监控系统的架构设计。

然后,我为你详细地解读了 Kubernetes 核心监控数据的来源,即:Metrics Server 的具体工作原理,以及 Aggregator APIServer 的设计思路。

通过以上讲述,我希望你能够对 Kubernetes 的监控体系形成一个整体的认知,体会到 Kubernetes 社区在监控这个事情上,全面以 Prometheus 项目为核心进行建设的大方向。最后,在具体的监控指标规划上,我建议你遵循业界通用的 USE 原则和 RED 原则

其中,USE 原则指的是,按照如下三个维度来规划资源监控指标:

  • 利用率(Utilization),资源被有效利用起来提供服务的平均时间占比;
  • 饱和度(Saturation),资源拥挤的程度,比如工作队列的长度;
  • 错误率(Errors),错误的数量。

RED 原则指的是,按照如下三个维度来规划服务监控指标:

  • 每秒请求数量(Rate);
  • 每秒错误数量(Errors);
  • 服务响应时间(Duration)。

不难发现, USE 原则主要关注的是“资源”,比如节点和容器的资源使用情况,而 RED 原则主要关注的是“服务”,比如 kube-apiserver 或者某个应用的工作情况。这两种指标,在我今天为你讲解的 Kubernetes + Prometheus 组成的监控体系中,都是可以完全覆盖到的。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 我可以回答这个问题。以下是20个prometheus监控apiserver指标的例子: 1. apiserver_request_count_total 2. apiserver_request_duration_seconds 3. apiserver_request_latencies_summary 4. apiserver_request_latencies_histogram 5. apiserver_request_size_bytes 6. apiserver_response_size_bytes 7. apiserver_request_duration_seconds_bucket 8. apiserver_request_duration_seconds_sum 9. apiserver_request_duration_seconds_count 10. apiserver_request_latencies_summary_sum 11. apiserver_request_latencies_summary_count 12. apiserver_request_latencies_histogram_bucket 13. apiserver_request_latencies_histogram_sum 14. apiserver_request_latencies_histogram_count 15. apiserver_request_size_bytes_bucket 16. apiserver_request_size_bytes_sum 17. apiserver_request_size_bytes_count 18. apiserver_response_size_bytes_bucket 19. apiserver_response_size_bytes_sum 20. apiserver_response_size_bytes_count ### 回答2: Prometheus是一种开源的监控系统,可以监控和收集各种指标数据。在监控Kubernetes集群中的api-server指标时,我们可以收集以下20个指标数据: 1. api_request_total:api-server接收到的总请求数量。 2. api_request_duration_seconds:api-server处理请求的平均时间。 3. apiserver_current_inflight_requests:当前正在处理的请求数。 4. apiserver_request_latency_seconds:api-server处理请求的延迟时间。 5. etcd_request_rate:对etcd的请求数量。 6. etcd_request_duration_seconds:处理etcd请求的平均时间。 7. etcd_current_inflight_requests:当前正在处理的etcd请求数。 8. etcd_request_latency_seconds:处理etcd请求的延迟时间。 9. apiserver_client_certificate_expiration_seconds:客户端证书的过期时间。 10. apiserver_client_certificate_rotation_age_seconds:客户端证书的轮换时间。 11. apiserver_current_leader:当前的api-server leader。 12. apiserver_storage_errors_total:api-server对存储的错误数量。 13. apiserver_longrunning_duration_seconds:长时间运行的请求的持续时间。 14. etcd_self_metrics_dial_duration_seconds:etcd与自身指标收集的平均连接时间。 15. apiserver_authentication_latency_seconds:api-server进行身份验证的延迟时间。 16. apiserver_authorization_latency_seconds:api-server进行授权的延迟时间。 17. apiserver_request_count:每个请求的计数。 18. apiserver_request_size_bytes:每个请求的大小。 19. apiserver_request_duration_seconds:每个请求的处理时间。 20. apiserver_response_size_bytes:每个请求的响应大小。 以上是其中一些常见的api-server指标,可以用来衡量和监控api-server的性能和健康状态,以便及时发现和解决问题。 ### 回答3: Prometheus是一款开源的监控与警报工具,可以帮助我们监控各种系统、服务和应用程序的指标。下面是一些示例,展示了Prometheus可以监控Kubernetes API Server的指标: 1. apiserver_request_count_total:API Server接收到的请求数量。 2. apiserver_request_duration_seconds:API Server处理请求的平均时间。 3. apiserver_request_errors_total:API Server处理请求时发生的错误数量。 4. apiserver_flowcontrol_throttled_requests_total:API Server因流量控制而被限制的请求数量。 5. apiserver_audit_event_count_total:API Server生成的审计事件数量。 6. apiserver_etcd_request_duration_seconds:API Server向etcd发送请求的耗时。 7. apiserver_authentication_attempts_total:API Server进行身份验证的尝试次数。 8. apiserver_admission_webhook_latency_seconds:API Server执行准入控制插件的平均时间。 9. apiserver_longrunning_gauge:API Server当前正在执行的长时间运行的操作数量。 10. apiserver_watcher_count:API Server当前活动的观察者数量。 11. apiserver_response_size_bytes:API Server返回的响应大小。 12. apiserver_storage_latency_seconds:API Server执行存储操作的平均延迟。 13. apiserver_storage_throughput_bytes:API Server与底层存储之间传输的数据量。 14. apiserver_node_count:API Server当前已知的集群节点数量。 15. apiserver_etcd_object_counts:API Server当前etcd中存储的对象数量。 16. apiserver_client_errors_total:API Server由于客户端错误而收到的请求数量。 17. apiserver_latency_summary:API Server完成请求所需时间的摘要统计。 18. apiserver_request_duration_bucket:API Server处理请求所需时间的分桶统计。 19. apiserver_request_size_bytes:API Server接收到的请求大小。 20. apiserver_failed_leader_elections_total:API Server发生失败的领导选举的次数。 这些指标可以帮助我们了解API Server的性能、可靠性和负载情况,并及时发现潜在的问题,以确保系统的稳定运行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值