【k8s】使用Metrics Server和Prometheus(十九)


前言

把 Pod 和集群管好用好还缺少一个很重要的方面——集群的可观测性。也就是说,我们希望给集群也安装上检查探针,观察到集群的资源利用率和其他指标,让集群的整体运行状况对我们透明可见,这样才能更准确更方便地做好集群的运维工作。

但是观测集群是不能用探针这种简单的方式的, Kubernetes 为集群提供的两种系统级别的监控项目:Metrics ServerPrometheus,以及基于它们的水平自动伸缩对象 HorizontalPodAutoscaler


提示:以下是本篇文章正文内容,下面案例可供参考

一、Metrics Server

如果你对 Linux 系统有所了解的话,也许知道有一个命令 top 能够实时显示当前系统的 CPU 和内存利用率,它是性能分析和调优的基本工具,非常有用。Kubernetes 也提供了类似的命令,就是 kubectl top,不过默认情况下这个命令不会生效,必须要安装一个插件 Metrics Server 才可以。

Metrics Server 是一个专门用来收集 Kubernetes 核心资源指标(metrics)的工具,它定时从所有节点的 kubelet 里采集信息,但是对集群的整体性能影响极小,每个节点只大约会占用 1m 的 CPU 和 2MB 的内存,所以性价比非常高。

下面的这张图来自 Kubernetes 官网,你可以对 Metrics Server 的工作方式有个大概了解:它调用 kubelet 的 API 拿到节点和 Pod 的指标,再把这些信息交给 apiserver,这样 kubectl、HPA 就可以利用 apiserver 来读取指标了:
在这里插入图片描述

在 Metrics Server 的项目网址(https://github.com/kubernetes-sigs/metrics-server)可以看到它的说明文档和安装步骤,不过如果你已经按照【k8s】利用Kubeadm搭建多节点的Kubernetes集群(七)用 kubeadm 搭建了 Kubernetes 集群,就已经具备了全部前提条件,接下来只需要几个简单的操作就可以完成安装。

Metrics Server 的所有依赖都放在了一个 YAML 描述文件里,你可以使用 wget 或者 curl 下载:

wget https://github.com/kubernetes-sigs/metrics-server/releases/latest/download/components.yaml

但是在 kubectl apply 创建对象之前,我们还有两个准备工作要做。

第一个工作,是修改 YAML 文件。你需要在 Metrics Server 的 Deployment 对象里,加上一个额外的运行参数 --kubelet-insecure-tls,也就是这样:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: metrics-server
  namespace: kube-system
spec:
  ... ... 
  template:
    spec:
      containers:
      - args:
        - --kubelet-insecure-tls
        ... ... 

这是因为 Metrics Server 默认使用 TLS 协议,要验证证书才能与 kubelet 实现安全通信,而我们的实验环境里没有这个必要,加上这个参数可以让我们的部署工作简单很多(生产环境里就要慎用)。

第二个工作,是预先下载 Metrics Server 的镜像。看这个 YAML 文件,你会发现 Metrics Server 的镜像仓库用的是 gcr.io,下载很困难。好在它也有国内的镜像网站,你可以用【k8s】利用Kubeadm搭建多节点的Kubernetes集群(七)的办法,下载后再改名,然后把镜像加载到集群里的节点上。

这里我给出一段 Shell 脚本代码,供你参考:


repo=registry.aliyuncs.com/google_containers

name=k8s.gcr.io/metrics-server/metrics-server:v0.6.1
src_name=metrics-server:v0.6.1

docker pull $repo/$src_name

docker tag $repo/$src_name $name
docker rmi $repo/$src_name

两个准备工作都完成之后,我们就可以使用 YAML 部署 Metrics Server 了:

kubectl apply -f components.yaml

Metrics Server 属于名字空间kube-system,可以用 kubectl get pod 加上 -n 参数查看它是否正常运行:

kubectl get pod -n kube-system

在这里插入图片描述
现在有了 Metrics Server 插件,我们就可以使用命令 kubectl top 来查看 Kubernetes 集群当前的资源状态了。它有两个子命令,node 查看节点的资源使用率,pod 查看 Pod 的资源使用率

由于 Metrics Server 收集信息需要时间,我们必须等一小会儿才能执行命令,查看集群里节点和 Pod 状态:

kubectl top node
kubectl top pod -n kube-system

在这里插入图片描述
从这个截图里可以看到:

  • 集群里两个节点 CPU 使用率都不高,分别是 9% 和 6%,但内存用的很多,master 节点用了差不多一半(60%),而work节点是(54%)
  • 名字空间“kube-system”里有很多 Pod,其中 apiserver 最消耗资源,使用了 43m 的 CPU 和 483MB 的内存。

二、HorizontalPodAutoscaler

有了 Metrics Server,我们就可以轻松地查看集群的资源使用状况了,不过它另外一个更重要的功能是辅助实现应用的水平自动伸缩

【k8s】Deployment让应用永不宕机(八)里我们提到有一个命令 kubectl scale,可以任意增减 Deployment 部署的 Pod 数量,也就是水平方向的扩容缩容。但是手动调整应用实例数量还是比较麻烦的,需要人工参与,也很难准确把握时机,难以及时应对生产环境中突发的大流量,所以最好能把这个“扩容”“缩容”也变成自动化的操作。

Kubernetes 为此就定义了一个新的 API 对象,叫做HorizontalPodAutoscaler,简称是hpa。顾名思义,它是专门用来自动伸缩 Pod 数量的对象,适用于 Deployment 和 StatefulSet,但不能用于 DaemonSet(原因很明显吧)。

HorizontalPodAutoscaler 的能力完全基于 Metrics Server,它从 Metrics Server 获取当前应用的运行指标,主要是 CPU 使用率,再依据预定的策略增加或者减少 Pod 的数量。

三、使用HorizontalPodAutoscaler

下面就来看看该怎么使用 HorizontalPodAutoscaler,首先要定义 Deployment 和 Service,创建一个 Nginx 应用,作为自动伸缩的目标对象:


apiVersion: apps/v1
kind: Deployment
metadata:
  name: ngx-hpa-dep

spec:
  replicas: 1
  selector:
    matchLabels:
      app: ngx-hpa-dep

  template:
    metadata:
      labels:
        app: ngx-hpa-dep
    spec:
      containers:
      - image: nginx:alpine
        name: nginx
        ports:
        - containerPort: 80

        resources:
          requests:
            cpu: 50m
            memory: 10Mi
          limits:
            cpu: 100m
            memory: 20Mi
---

apiVersion: v1
kind: Service
metadata:
  name: ngx-hpa-svc
spec:
  ports:
  - port: 80
    protocol: TCP
    targetPort: 80
  selector:
    app: ngx-hpa-dep

在这个 YAML 里我只部署了一个 Nginx 实例,名字是 ngx-hpa-dep。注意在它的 spec 里一定要用 resources 字段写清楚资源配额,否则 HorizontalPodAutoscaler 会无法获取 Pod 的指标,也就无法实现自动化扩缩容。

接下来我们要用命令 kubectl autoscale 创建一个 HorizontalPodAutoscaler 的样板 YAML 文件,它有三个参数:

  • min,Pod 数量的最小值,也就是缩容的下限。
  • max,Pod 数量的最大值,也就是扩容的上限。
  • cpu-percent,CPU 使用率指标,当大于这个值时扩容,小于这个值时缩容。

好,现在我们就来为刚才的 Nginx 应用创建 HorizontalPodAutoscaler,指定 Pod 数量最少 2 个,最多 10 个,CPU 使用率指标设置的小一点,5%,方便我们观察扩容现象:

export out="--dry-run=client -o yaml"              # 定义Shell变量
kubectl autoscale deploy ngx-hpa-dep --min=2 --max=10 --cpu-percent=5 $out

得到的 YAML 描述文件就是这样:

apiVersion: autoscaling/v1
kind: HorizontalPodAutoscaler
metadata:
  name: ngx-hpa

spec:
  maxReplicas: 10
  minReplicas: 2
  scaleTargetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: ngx-hpa-dep
  targetCPUUtilizationPercentage: 5

我们再使用命令 kubectl apply创建这个 HorizontalPodAutoscaler 后,它会发现 Deployment 里的实例只有 1 个,不符合 min 定义的下限的要求,就先扩容到 2 个:
在这里插入图片描述

从这张截图里你可以看到,HorizontalPodAutoscaler 会根据 YAML 里的描述,找到要管理的Deployment,把 Pod 数量调整成 2 个,再通过 Metrics Server 不断地监测 Pod 的 CPU 使用率。

下面我们来给 Nginx 加上压力流量,运行一个测试 Pod,使用的镜像是httpd:alpine,它里面有 HTTP 性能测试工具 ab(Apache Bench):

kubectl run test -it --image=httpd:alpine -- sh

然后我们向 Nginx 发送一百万个请求,持续 1 分钟,再用 kubectl get hpa 来观察 HorizontalPodAutoscaler 的运行状况:

ab -c 10 -t 60 -n 1000000 'http://ngx-hpa-svc/'

在这里插入图片描述
因为 Metrics Server 大约每 15 秒采集一次数据,所以 HorizontalPodAutoscaler 的自动化扩容和缩容也是按照这个时间点来逐步处理的。

当它发现目标的 CPU 使用率超过了预定的 5% 后,就会以 2 的倍数开始扩容,一直到数量上限,然后持续监控一段时间,如果 CPU 使用率回落,就会再缩容到最小值(默认会等待五分钟如果负载没有上去,就会缩小到最低水平,防止抖动)。`

四、Prometheus

显然,有了 Metrics ServerHorizontalPodAutoscaler 的帮助,我们的应用管理工作又轻松了一些。不过,Metrics Server 能够获取的指标还是太少了,只有 CPU 和内存,想要监控到更多更全面的应用运行状况,还得请出这方面的权威项目Prometheus

其实,Prometheus 的历史比 Kubernetes 还要早一些,它最初是由 Google 的离职员工在 2012 年创建的开源项目,灵感来源于 Borg 配套的 BorgMon 监控系统。后来在 2016 年,Prometheus 作为第二个项目加入了 CNCF,并在 2018 年继 Kubernetes 之后顺利毕业,成为了 CNCF 的不折不扣的“二当家”,也是云原生监控领域的事实标准

和 Kubernetes 一样,Prometheus 也是一个庞大的系统,这里就只做一个简略的介绍。

下面的这张图是 Prometheus 官方的架构图

Prometheus 系统的核心是它的 Server,里面有一个时序数据库 TSDB,用来存储监控数据,另一个组件 Retrieval 使用拉取(Pull)的方式从各个目标收集数据,再通过 HTTP Server 把这些数据交给外界使用。

  • 在 Prometheus Server 之外还有三个重要的组件:
  • Alert Manager,告警中心,预先设定规则,发现问题时就通过邮件等方式告警。
  • Grafana 是图形化界面,可以定制大量直观的监控仪表盘。

由于同属于 CNCF,所以 Prometheus 自然就是云原生,在 Kubernetes 里运行是顺理成章的事情。不过它包含的组件实在是太多,部署起来有点麻烦,这里我选用了kube-prometheus项目(https://github.com/prometheus-operator/kube-prometheus/),感觉操作起来比较容易些。

下面就在 Kubernetes 实验环境里体验一下 Prometheus 吧。

我们先要下载 kube-prometheus 的源码包,当前的最新版本是 0.12:

wget https://github.com/prometheus-operator/kube-prometheus/archive/refs/tags/v0.11.0.tar.gz

解压缩后,Prometheus 部署相关的 YAML 文件都在 manifests 目录里,有近 100 个,你可以先大概看一下。

和 Metrics Server 一样,我们也必须要做一些准备工作,才能够安装 Prometheus。

第一步,是修改 prometheus-service.yamlgrafana-service.yaml

这两个文件定义了 Prometheus 和 Grafana 服务对象,我们可以给它们添加 type: NodePort(参考【k8s】Service微服务架构的应对之道(十)),这样就可以直接通过节点的 IP 地址访问(当然你也可以配置成 Ingress)

第二步,是修改 kubeStateMetrics-deployment.yamlprometheusAdapter-deployment.yaml,因为它们里面有两个存放在 gcr.io 的镜像,必须解决下载镜像的问题。

但很遗憾,我没有在国内网站上找到它们的下载方式,为了能够顺利安装,需要手动把镜像下载下来进行替换,需要在每个节点操作

// 在dockerhub上面搜索需要下载的镜像到指定服务器,网址:https://hub.docker.com/
// 修改镜像tag
// 格式:docker image tag  源镜像:tag 目标镜像:tag

docker pull v5cn/prometheus-adapter:v0.9.1
docker image tag v5cn/prometheus-adapter:v0.9.1 k8s.gcr.io/prometheus-adapter/prometheus-adapter:v0.9.1
docker pull landv1001/kube-state-metrics:v2.5.0
docker image tag landv1001/kube-state-metrics:v2.5.0 k8s.gcr.io/kube-state-metrics/kube-state-metrics:v2.5.0  

这两个准备工作完成之后,我们要执行两个 kubectl create 命令来部署 Prometheus,先是 manifests/setup 目录,创建名字空间等基本对象,然后才是 manifests 目录:

kubectl create -f manifests/setup
kubectl create -f manifests

Prometheus 的对象都在名字空间monitoring里,创建之后可以用 kubectl get 来查看状态:

[root@k8s-console ~]# kubectl get pod -n monitoring 
NAME                                  READY   STATUS    RESTARTS        AGE
alertmanager-main-0                   2/2     Running   0               5m15s
alertmanager-main-1                   2/2     Running   0               5m15s
alertmanager-main-2                   2/2     Running   0               5m15s
blackbox-exporter-746c64fd88-t7rb2    3/3     Running   0               5m15s
grafana-5fc7f9f55d-dzbjn              1/1     Running   0               5m21s
kube-state-metrics-57d8f5c54-kp72n    3/3     Running   0               5m12s
node-exporter-69d5l                   2/2     Running   0               5m15s
node-exporter-zvdwm                   2/2     Running   0               5m15s
prometheus-adapter-6455646bdc-9knvt   1/1     Running   0               5m15s
prometheus-adapter-6455646bdc-pmftt   1/1     Running   0               5m15s
prometheus-k8s-0                      2/2     Running   0               5m15s
prometheus-k8s-1                      2/2     Running   0               5m15s
prometheus-operator-f59c8b954-tbnpl   2/2     Running   0               5m15s
[root@k8s-console ~]# 

确定这些 Pod 都运行正常,我们再来看看它对外的服务端口:

[root@k8s-console ~]# kubectl get svc -n monitoring 
NAME                    TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)                         AGE
alertmanager-main       ClusterIP   10.107.55.31    <none>        9093/TCP,8080/TCP               6m
alertmanager-operated   ClusterIP   None            <none>        9093/TCP,9094/TCP,9094/UDP      6m
blackbox-exporter       ClusterIP   10.100.222.57   <none>        9115/TCP,19115/TCP              6m
grafana                 NodePort    10.98.171.177   <none>        3000:32571/TCP                  6m
kube-state-metrics      ClusterIP   None            <none>        8443/TCP,9443/TCP               6m
node-exporter           ClusterIP   None            <none>        9100/TCP                        6m
prometheus-adapter      ClusterIP   10.108.130.94   <none>        443/TCP                         6m
prometheus-k8s          NodePort    10.108.43.11    <none>        9090:31668/TCP,8080:32025/TCP   6m
prometheus-operated     ClusterIP   None            <none>        9090/TCP                        6m
prometheus-operator     ClusterIP   None            <none>        8443/TCP                        6m
[root@k8s-console ~]# 

前面修改了 Grafana 和 Prometheus 的 Service 对象,所以这两个服务就在节点上开了端口,Grafana 是32571,Prometheus 有两个端口,其中“9090”对应的31668是 Web 端口。

在浏览器里输入节点的 IP 地址(我这里是http://10.0.0.12),再加上端口号“31668”,我们就能看到 Prometheus 自带的 Web 界面,:
在这里插入图片描述
Web 界面上有一个查询框,可以使用 PromQL 来查询指标,生成可视化图表,比如在这个截图里我就选择了node_memory_Active_bytes这个指标,意思是当前正在使用的内存容量。

Prometheus 的 Web 界面比较简单,通常只用来调试、测试,不适合实际监控。我们再来看 Grafana,访问节点的端口“32571”(我这里是“http://10.0.0.12:32571”),它会要求你先登录,默认的用户名和密码都是“admin”:
在这里插入图片描述
Grafana 内部已经预置了很多强大易用的仪表盘,你可以在左侧菜单栏的“Dashboards - Browse”里任意挑选一个:
在这里插入图片描述
比如我选择了“Kubernetes / Compute Resources / Namespace (Pods)”这个仪表盘,就会出来一个非常漂亮图表,比 Metrics Server 的 kubectl top 命令要好看得多,各种数据一目了然:
在这里插入图片描述
如果你对它感兴趣的话,可以去它的官网看文档,或者参考其他的学习资料。

总结

  1. Metrics Server 是一个 Kubernetes 插件,能够收集系统的核心资源指标,相关的命令是 kubectl top。
  2. Prometheus 是云原生监控领域的“事实标准”,用 PromQL 语言来查询数据,配合 Grafana 可以展示直观的图形界面,方便监控。
  3. HorizontalPodAutoscaler 实现了应用的自动水平伸缩功能,它从 Metrics Server 获取应用的运行指标,再实时调整 Pod 数量,可以很好地应对突发流量。
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是在 Kubernetes 上部署 Prometheus 的步骤: 1. 首先,我们需要创建一个 Namespace,用于存放 Prometheus 相关的资源: ``` kubectl create namespace prometheus ``` 2. 接下来,我们需要创建一个 Prometheus 配置文件 prometheus.yaml,具体内容如下: ``` apiVersion: v1 kind: ConfigMap metadata: name: prometheus-config namespace: prometheus data: prometheus.yml: | global: scrape_interval: 15s evaluation_interval: 15s scrape_configs: - job_name: 'kubernetes-apiservers' kubernetes_sd_configs: - role: endpoints api_server: https://kubernetes.default.svc tls_config: ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token scheme: https metrics_path: /metrics honor_labels: true tls_config: insecure_skip_verify: true bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token ``` 该配置文件中定义了 Prometheus 的全局配置和抓取配置,其中 job_name 为 kubernetes-apiservers,用于抓取 Kubernetes API Server 的指标。 3. 接下来,我们需要创建一个 Prometheus 部署文件 prometheus-deployment.yaml,具体内容如下: ``` apiVersion: apps/v1 kind: Deployment metadata: name: prometheus namespace: prometheus labels: app: prometheus spec: replicas: 1 selector: matchLabels: app: prometheus template: metadata: labels: app: prometheus spec: containers: - name: prometheus image: prom/prometheus:v2.28.1 args: - "--config.file=/etc/prometheus/prometheus.yml" - "--storage.tsdb.path=/prometheus" ports: - name: web containerPort: 9090 volumeMounts: - name: prometheus-config mountPath: /etc/prometheus - name: prometheus-data mountPath: /prometheus volumes: - name: prometheus-config configMap: name: prometheus-config - name: prometheus-data emptyDir: {} ``` 该部署文件中定义了一个名为 prometheus 的 Deployment,使用 prom/prometheus:v2.28.1 镜像,挂载了 prometheus-config 和 prometheus-data 两个 Volume。 4. 最后,我们需要创建一个 Prometheus Service 文件 prometheus-service.yaml,具体内容如下: ``` apiVersion: v1 kind: Service metadata: name: prometheus namespace: prometheus spec: selector: app: prometheus ports: - name: web port: 9090 targetPort: web type: ClusterIP ``` 该 Service 文件中定义了一个名为 prometheus 的 Service,类型为 ClusterIP,暴露了 9090 端口。 5. 执行以下命令,部署 Prometheus: ``` kubectl apply -f prometheus.yaml kubectl apply -f prometheus-deployment.yaml kubectl apply -f prometheus-service.yaml ``` 6. 部署完成后,可以通过以下命令获取 Prometheus 的服务地址: ``` kubectl get svc prometheus -n prometheus ``` 7. 访问 Prometheus 服务地址,即可查看抓取的指标数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值