【kubernetes】k8s 自动伸缩机制-------HPA 超详细解读

目录

前言

在K8s中扩缩容分为两种:

一、HPA

1.1HPA介绍

1.2核心概念

1.3HPA 的配置关键参数

1.4关键组件

1.4.1HPA控制器(HPA Controller)

1.4.2Metrics Server

1.4.3自定义指标适配器(Custom Metrics Adapter)

1.4.4Deployment/ReplicaSet

1.4.5Pods

1.4.6API服务器(API Server)

1.4.7Kubelet

1.4.8监控和日志系统

1.5使用场景

1.6注意事项

二、部署 metrics-server

2.1metrics-server介绍

2.1.1资源使用情况聚合

2.1.2支持 Kubernetes 核心功能

2.1.3安全性

2.1.4部署和维护

2.1.5配置选项

2.2部署Metrics-Server

2.2.1准备 metrics-server 镜像

2.2.2使用 helm install 安装 metrics-server

2.2.3配置Metrics-Server

2.2.4使用 helm install 安装 metrics-server

三、部署 HPA 

3.1上传镜像文件

3.2创建用于测试的 Pod 资源,并设置请求资源为 cpu=200m

3.3配置和使用 HPA

3.3.1创建 HPA 控制器

3.3.2监控 HPA 状态

3.4压力测试

四、资源限制

4.1资源限制 - Pod

4.1.1cgroup 的作用

4.1.2Pod 资源限制

4.2资源限制 - 命名空间

4.2.1计算资源配额

4.2.2配置对象数量配额限制

六、温故而知新

6.1HPA

6.2Kubectl 资源限制


前言

弹性伸缩是根据用户的业务需求和策略,自动“调整”其“弹性资源”的管理服务。通过弹性伸缩功能,用户可设置对定时、周期或监控策略,恰到好处地增加或减少“弹性资源”,并完成实例配置,保证业务平稳健康运行 

在实际工作中,我们常常需要做一些扩容缩容操作,如:电商平台在618和双十一搞秒杀活动;由于资源紧张、工作负载降低等都需要对服务实例数进行扩缩容操作。

在K8s中扩缩容分为两种:

  • Node层面:对K8s物理节点扩容和缩容,根据业务规模实现物理节点自动扩缩容
  • Pod层面:我们一般会使用Deployment中的Replicas参数,设置多个副本集来保证服务的高可用,但是这是一个固定的值,比如我们设置10个副本,就会启10个pod同时Running来提供服务。如果这个服务平时流量很少的时候,也是10个Pod同时在Running,而流量突然暴增时,又可能出现10个Pod不够用的情况,针对这种情况就要使用扩容和缩容

自动扩容和缩容:VPA、KPA、HPA 

 KPA(Knative Pod Autoscaler)基于请求数对Pod自动扩缩容,KPA的主要限制在于它不支持基于CPU的自动扩缩容。

  • 根据并发请求数实现自动扩缩容
  • 设置扩缩容边界实现自动扩缩容

扩缩容边界是指应用程序提供服务的最小和最大Pod数量。通过设置应用程序服务的最小和最大Pod数量实现自动扩缩容。

VPA

Kubernetes VPA(Vertical Pod Autoscaler)垂直Pod自动扩缩容,VPA会基于Pod的资源使用情况自动为集群设置资源占用的限制,从而让集群将Pod调度到足够资源的最佳节点上。VPA也会保持最初容器定义中资源Request和Limit的占比。

它会根据容器资源使用率自动设置Pod的CPU和内存的Request,从而允许在节点上进行适当的调度,以便为每个Pod提供适当的可用的节点。它既可以缩小过度请求资源的容器,也可以根据其使用情况随时提升资源不足的容量。

一、HPA

1.1HPA介绍

HPA(Horizontal Pod Autoscaling)Pod 水平自动伸缩,Kubernetes 有一个 HPA 的资源,HPA 可以根据 CPU 利用率自动伸缩一个 Replication Controller、Deployment 或者Replica Set 中的 Pod 数量。

(1)HPA 基于 Master 上的 kube-controller-manager 服务启动参数 horizontal-pod-autoscaler-sync-period 定义的时长(默认为30秒),周期性的检测 Pod 的 CPU 使用率。

(2)HPA 与之前的 RC、Deployment 一样,也属于一种 Kubernetes 资源对象。通过追踪分析 RC 控制的所有目标 Pod 的负载变化情况,来确定是否需要针对性地调整目标Pod的副本数,这是HPA的实现原理。

(3)metrics-server 也需要部署到集群中, 它可以通过 resource metrics API 对外提供度量数据。

HPA(Horizontal Pod Autoscaler)是Kubernetes中实现自动扩缩容Pod副本数量的机制。它允许集群中的工作负载(如Deployments、ReplicaSets和StatefulSets)根据实际的负载情况自动调整Pod的数量,以此来优化资源的使用和提高服务的响应能力。

1.2核心概念

  • 水平扩展(Horizontal Scaling):增加Pod的数量来分摊负载,与垂直扩展(增加单个Pod的资源)相对。
  • Pod副本(Pod Replicas):运行应用程序的容器实例,通常是在Deployment或ReplicaSet等控制器下管理的。
  • 指标(Metrics):用于触发HPA扩缩容的度量值,如CPU使用率、内存使用量、自定义的应用程序指标等

1.3HPA 的配置关键参数

  • ScaleTargetRef:指定 HPA 将要作用的资源对象,如 Deployment、Replica Set 或 RC 的名称。
  • MinReplicas:最小副本数,即使在负载很低时也不会低于这个数量。
  • MaxReplicas:最大副本数,即使在负载很高时也不会超过这个数量。
  • Metrics:定义用于触发伸缩的度量标准和目标值。例如,可以设置 CPU 的利用率目标,当实际利用率超过这个目标值时,HPA 会增加副本数量;当利用率低于目标值时,HPA 会减少副本数量。

1.4关键组件

1.4.1HPA控制器(HPA Controller)

这是HPA的核心组件,负责周期性地检查Pod的资源使用情况,并根据这些信息计算出所需的Pod副本数量。

它使用Metrics Server或其他监控工具来获取资源使用数据。

1.4.2Metrics Server

Metrics Server是Kubernetes集群中的一个组件,用于聚合资源使用数据,并通过Metrics API提供这些数据。

它提供了CPU和内存使用率等资源指标,这些指标是HPA进行扩缩容决策的基础。

1.4.3自定义指标适配器(Custom Metrics Adapter)

当需要使用自定义指标(如来自Prometheus的指标)时,自定义指标适配器允许HPA使用这些外部指标。

它通过Custom Metrics API将外部指标转换为Kubernetes可以理解的格式。

1.4.4Deployment/ReplicaSet

  • HPA通常与Deployment或ReplicaSet一起使用,这些是定义了Pod副本数量和更新策略的高级抽象。
  • 当HPA决定调整副本数量时,它会通过修改Deployment或ReplicaSet的规格来实现。

1.4.5Pods

  • Pod是Kubernetes中的基本工作单元,HPA的目标就是根据指标自动调整Pod的数量。
  • 每个Pod可以有一个或多个容器,HPA关注的是整个Pod的资源使用情况。

1.4.6API服务器(API Server)

  • Kubernetes API服务器是集群的通信中心,所有资源的创建、更新和删除都通过它进行。
  • HPA控制器通过API服务器与集群中的其他组件交互,如更新Deployment或ReplicaSet的副本数量。

1.4.7Kubelet

  • Kubelet是运行在每个节点上的守护进程,负责维护Pod的生命周期,包括启动、停止容器。
  • 当HPA触发扩容时,Kubelet会在节点上启动新的Pod实例。

1.4.8监控和日志系统

  • 虽然不是HPA的直接组件,但监控和日志系统对于理解和调试HPA的行为至关重要。
  • 它们提供了关于Pod状态、资源使用和扩缩容事件的详细信息。
  • 这些组件共同工作,使得HPA能够根据实际的负载情况自动调整Pod的数量,从而实现应用程序的弹性伸缩。

1.5使用场景

  • 应对流量波动:在Web服务中,流量可能在一天中的不同时间有很大波动。HPA可以根据流量自动调整Pod数量,以保持服务的响应性。
  • 负载均衡:当新的Pod加入集群时,负载均衡器(如Kubernetes Service)会自动将流量路由到新的Pod,实现负载均衡。
  • 资源优化:通过自动调整Pod数量,HPA有助于避免资源浪费,并确保资源得到最佳利用。

1.6注意事项

  • 周期性检测:HPA 根据 kube-controller-manager 服务的启动参数 horizontal-pod-autoscaler-sync-period 来定义检测周期,默认为 30 秒。这意味着 HPA 控制器会每 30 秒检查一次 Pod 的 CPU 使用率,以决定是否需要调整副本数量。
  • Kubernetes 资源对象HPA 是 Kubernetes 中的一种资源对象,与 Replication Controller(RC)、Deployment 或 Replica Set 等资源对象类似。HPA 通过监控这些控制器管理的 Pod 负载变化情况,来动态调整副本数量。例如,如果一个 Deployment 管理了多个 Pod,HPA 将会监控这些 Pod 的平均 CPU 使用率,并根据这个指标来增加或减少 Pod 的数量。
  • metrics-server 部署:为了使 HPA 能够获取到 Pod 的度量数据,metrics-server 必须部署在 Kubernetes 集群中。metrics-server 通过 resource metrics API 提供集群资源的使用情况,包括 CPU 和内存的使用情况。这样,HPA 就可以利用这些数据来做出伸缩决策。

二、部署 metrics-server

2.1metrics-server介绍

metrics-server 是 Kubernetes 集群中的一个关键组件,它的作用是聚合和提供集群资源的使用情况。这些信息对于 Kubernetes 集群的各种内部组件和外部工具来说非常重要,它们依赖这些数据来进行决策和操作。以下是 metrics-server 的一些关键功能和用途:

2.1.1资源使用情况聚合

  • metrics-server 收集集群中每个节点的资源使用数据,包括 CPU 和内存的使用情况。
  • 它还提供了 Pod 级别的资源使用信息。

2.1.2支持 Kubernetes 核心功能

  • Horizontal Pod Autoscaler (HPA): HPA 依赖 metrics-server 提供的数据来自动调整 Pod 副本的数量,以保持应用程序的稳定运行。
  • kubectl: kubectl top 命令使用 metrics-server 的数据来显示集群中节点和 Pod 的资源使用情况。
  • Scheduler: Kubernetes 的调度器使用节点的资源使用情况来做出调度决策,决定在哪里运行新的 Pod。

2.1.3安全性

metrics-server 可以配置为使用安全的 kubelet API,这意味着它可以在不暴露节点上 kubelet 的端口的情况下收集资源使用数据。

2.1.4部署和维护

metrics-server 通常作为 Kubernetes 集群的一部分进行部署,它可以使用 Helm chart 或者直接从容器镜像部署。

它需要在集群中的每个节点上运行,以便收集所有节点的资源使用情况。

2.1.5配置选项

可以通过配置文件或 Helm chart 的 values 文件来调整 metrics-server 的行为,例如设置日志级别、指定 kubelet 的地址和端口、配置资源请求和限制等。

2.2部署Metrics-Server

metrics-server:是kubernetes集群资源使用情况的聚合器,收集数据给kubernetes集群内使用,如kubectl、hpa、scheduler等。

2.2.1准备 metrics-server 镜像

在所有 Node 节点上传 metrics-server.tar 镜像包到 /opt 目录

cd /opt/
docker load -i metrics-server.tar
  • 将 metrics-server 的镜像包 metrics-server.tar 上传到所有 Node 节点的 /opt 目录。

  • 使用 docker load -i metrics-server.tar 命令加载镜像到本地 Docker 环境。

这里可能是副本多了(2),不过不影响

2.2.2使用 helm install 安装 metrics-server

mkdir /opt/metrics
cd /opt/metrics
#创建一个目录 /opt/metrics 用于存放 metrics-server 的配置文件
 
 
#移除旧的 Helm 仓库(如果已添加)
helm repo remove stable
 
 
 
#添加新的 Helm 仓库,可以选择使用官方源或镜像源,建议使用官方
helm repo add stable https://charts.helm.sh/stable
# 或
helm repo add stable http://mirror.azure.cn/kubernetes/charts
 
 
#更新 Helm 仓库
helm repo update
 
 
 
#从 Helm 仓库拉取 metrics-server chart
helm pull stable/metrics-server

2.2.3配置Metrics-Server

vim metrics-server.yaml
args:
- --logtostderr
- --kubelet-insecure-tls
- --kubelet-preferred-address-types=InternalIP
image:
  repository: k8s.gcr.io/metrics-server-amd64
  tag: v0.3.2



# 在 Metrics Server 的容器启动参数中添加了以下选项:
args:
  - --logtostderr    # 将日志输出到标准错误输出(stderr),这对于容器环境中的日志收集很常见。
  - --kubelet-insecure-tls   # 允许 Metrics Server 以不安全的方式与 kubelet 通信,忽略 TLS 证书验证。这在测试或非生产环境中可能用到,但生产环境应避免。
  - --kubelet-preferred-address-types=InternalIP  # 指定 Metrics Server 优先使用节点的 InternalIP 地址来与 kubelet 通讯,这有助于在具有多个网络接口的节点上正确路由。

# 镜像信息设置:
image:
  repository: k8s.gcr.io/metrics-server-amd64   # 使用了 Kubernetes 官方仓库中的 Metrics Server 镜像,适用于 amd64 架构。
  tag: v0.3.2    # 指定了镜像的标签为 v0.3.2,代表使用的 Metrics Server 版本。

2.2.4使用 helm install 安装 metrics-server

helm install metrics-server stable/metrics-server -n kube-system -f metrics-server.yaml

kubectl get pods -n kube-system | grep metrics-server

使用 helm install 命令安装 metrics-server 到 kube-system 命名空间,并应用自定义的配置文件

#需要多等一会儿

  • 等待一段时间后,可以使用 kubectl top node 命令查看节点资源使用情况。
  • 使用 kubectl top pods --all-namespaces 命令查看所有命名空间中的 Pod 资源使用情况。
kubectl top node

kubectl top pods --all-namespaces

通过这些步骤,可以确保 metrics-server 成功部署在 Kubernetes 集群中,并且可以提供集群资源使用情况的聚合信息,这对于 Kubernetes 集群的运维和自动扩缩容策略的实施非常关键。

三、部署 HPA 

hpa-example.tar 是谷歌基于 PHP 语言开发的用于测试 HPA 的镜像,其中包含了一些可以运行 CPU 密集计算任务的代码。

部署一个用于测试水平 Pod 自动扩缩容(HPA)的示例应用程序

3.1上传镜像文件

在所有节点上传 hpa-example.tar 镜像文件到 /opt 目录

cd /opt
docker load -i hpa-example.tar

docker images | grep hpa-example
  • 将 hpa-example.tar 镜像文件上传到所有节点的 /opt 目录。
  • hpa-example.tar 是谷歌基于 PHP 语言开发的用于测试 HPA 的镜像,其中包含了一些可以运行 CPU 密集计算任务的代码。
  • 使用 docker load -i hpa-example.tar 命令加载镜像到本地 Docker 环境。

3.2创建用于测试的 Pod 资源,并设置请求资源为 cpu=200m

  • 创建一个名为 hpa-pod.yaml 的文件,定义一个 Deployment 和一个 Service 资源。
vim hpa-pod.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    run: php-apache
  name: php-apache
spec:
  replicas: 1
  selector:
    matchLabels:
      run: php-apache
  template:
    metadata:
      labels:
        run: php-apache
    spec:
      containers:
      - image: gcr.io/google_containers/hpa-example
        name: php-apache
        imagePullPolicy: IfNotPresent
        ports:
        - containerPort: 80
        resources:
          requests:
            cpu: 200m
---
apiVersion: v1
kind: Service
metadata:
  name: php-apache
spec:
  ports:
  - port: 80
    protocol: TCP
    targetPort: 80
  selector:
    run: php-apache
  • 在 Deployment 中,指定 hpa-example 镜像,并设置 CPU 请求资源为 200m(200 毫核)。

  • 创建 Service 以暴露 Deployment 中的 Pod,使其可以通过网络访问。

kubectl apply -f hpa-pod.yaml
 
kubectl get pods

通过这些步骤,可以在 Kubernetes 集群中部署一个应用程序,并使用 HPA 根据实际负载自动调整 Pod 副本数,从而实现应用程序的自动扩缩容。

3.3配置和使用 HPA

3.3.1创建 HPA 控制器

使用 kubectl autoscale 命令创建 HPA 控制器,设置 cpu 负载阈值为请求资源的 50%,指定最少负载节点数量为 1 个,最大负载节点数量为 10 个

kubectl autoscale deployment php-apache --cpu-percent=50 --min=1 --max=10

3.3.2监控 HPA 状态

需要等一会儿,才能获取到指标信息 TARGETS

kubectl get hpa


kubectl top pods
  • 使用 kubectl get hpa 命令查看 HPA 的状态,包括当前的 CPU 负载百分比、最小和最大 Pod 数量以及当前的 Pod 副本数。

3.4压力测试

  • 创建一个临时的测试客户端容器,使用 kubectl run 命令启动一个 busybox 容器,并在其中运行一个无限循环的 wget 命令,以模拟对 php-apache 服务的持续访问:
//创建一个测试客户端容器
kubectl run -it load-generator --image=busybox /bin/sh

//增加负载
# while true; do wget -q -O- http://php-apache.default.svc.cluster.local; done

打开一个新的窗口,查看负载节点数目

kubectl get hpa -w

#以上可以看到经过压测,负载节点数量最大上升到 10 个,并且 cpu 负载也随之下降。

#观察 HPA 控制器的响应,可以看到随着 CPU 负载的增加,Pod 的副本数从 1 个增加到最大限制的 10 个

如果 cpu 性能较好导致负载节点上升不到 10 个,可再创建一个测试客户端同时测试:

如果 cpu 性能较好导致负载节点上升不到 10 个,可再创建一个测试客户端同时测试:

kubectl run -i --tty load-generator1 --image=busybox /bin/sh
# while true; do wget -q -O- http://php-apache.default.svc.cluster.local; done

查看 Pod 状态,也发现已经创建了 10 个 Pod 资源

kubectl get pods

#HPA 扩容的时候,负载节点数量上升速度会比较快;但回收的时候,负载节点数量下降速度会比较慢。
原因是防止在业务高峰期时因为网络波动等原因的场景下,如果回收策略比较积极的话,K8S集群可能会认为访问流量变小而快速收缩负载节点数量,而仅剩的负载节点又承受不了高负载的压力导致崩溃,从而影响业务。


这边等一会(别急哈),它会自动进行缩容哦

四、资源限制

4.1资源限制 - Pod

Kubernetes对资源的限制实际上是通过cgroup来控制的,cgroup是容器的一组用来控制内核如何运行进程的相关属性集合。针对内存、CPU 和各种设备都有对应的 cgroup。
默认情况下,Pod 运行没有 CPU 和内存的限额。这意味着系统中的任何 Pod 将能够像执行该 Pod 所在的节点一样, 消耗足够多的 CPU 和内存。

一般会针对某些应用的 pod 资源进行资源限制,这个资源限制是通过 resources 的 requests 和 limits 来实现。requests 为创建 Pod 时初始要分配的资源,limits 为 Pod 最高请求的资源值。

4.1.1cgroup 的作用

  • 控制组: cgroup(Control Groups)是 Linux 内核的一个特性,它允许对系统资源进行分组管理和限制。

  • 资源隔离: cgroup 通过为每个组设置资源配额和限制,实现了对 CPU、内存、I/O 等资源的隔离和控制。

4.1.2Pod 资源限制

  • requests: 指定 Pod 运行所需的最小资源量。Kubernetes 调度器会考虑这些请求来决定在哪个节点上调度 Pod。如果节点无法满足 Pod 的资源请求,Pod 将不会被调度到该节点。
  • limits: 指定 Pod 可以使用的最大资源量。如果 Pod 尝试使用超过其限制的资源,系统将通过 cgroup 强制限制资源使用,可能会导致 Pod 被杀死或重启。
示例:
spec:
  containers:
  - image: xxxx
    imagePullPolicy: IfNotPresent
    name: auth
    ports:
    - containerPort: 8080
      protocol: TCP
    resources:
      limits:
        cpu: "2"        # 限制 CPU 使用量为 2 个单位(可以是核心数或毫核)
        memory: 1Gi     # 限制内存使用量为 1Gi(Gibibytes)
      requests: 
        cpu: 250m       # 请求 CPU 使用量为 250 毫核
        memory: 250Mi   # 请求内存使用量为 250Mi(Mebibytes)

在这个配置中,auth 容器请求了 250 毫核的 CPU 和 250Mi 的内存,同时设置了 2 个单位的 CPU 和 1Gi 内存的限制。这意味着 Kubernetes 会确保 auth 容器至少有 250 毫核的 CPU 和 250Mi 的内存可用,但如果资源充足,它可以使用更多,但不会超过 2 个单位的 CPU 和 1Gi 的内存。

通过这种方式,可以为 Kubernetes 集群中的 Pod 设置合理的资源请求和限制,以确保应用程序的性能和稳定性,同时优化资源的使用。

4.2资源限制 - 命名空间

在 Kubernetes 中使用 ResourceQuota 和 LimitRange 资源类型来对命名空间级别的资源使用进行限制和管理

4.2.1计算资源配额

apiVersion: v1
kind: ResourceQuota        #使用 ResourceQuota 资源类型
metadata:
  name: compute-resources
  namespace: spark-cluster  #指定命令空间
spec:
  hard:
    pods: "20"    #设置 Pod 数量最大值
    requests.cpu: "2"
    requests.memory: 1Gi
    limits.cpu: "4"
    limits.memory: 2Gi
  • 在提供的第一个示例中,ResourceQuota 被命名为 compute-resources,它限制了 spark-cluster 命名空间中的资源使用:
  • pods:最多允许 20 个 Pod。
  • requests.cpu 和 requests.memory:所有 Pod 总和的 CPU 和内存请求量上限。
  • limits.cpu 和 limits.memory:单个 Pod 能够使用的 CPU 和内存量上限。

4.2.2配置对象数量配额限制

apiVersion: v1
kind: ResourceQuota
metadata:
  name: object-counts
  namespace: spark-cluster
spec:
  hard:
    configmaps: "10"
    persistentvolumeclaims: "4"		#设置 pvc 数量最大值
    replicationcontrollers: "20"    #设置 rc 数量最大值
    secrets: "10"
    services: "10"
    services.loadbalancers: "2"
  • 第二个示例中的 ResourceQuota 被命名为 object-counts,它限制了 spark-cluster 命名空间中的配置对象数量:
  • configmaps、persistentvolumeclaims、replicationcontrollers、secrets、services:这些项限制了各种类型配置对象的数量。
  • services.loadbalancers:特别限制了使用负载均衡器类型的服务数量

#如果Pod没有设置requests和limits,则会使用当前命名空间的最大资源;如果命名空间也没设置,则会使用集群的最大资源。
K8S 会根据 limits 限制 Pod 使用资源,当内存超过 limits 时 cgruops 会触发 OOM

这里就需要创建 LimitRange 资源来设置 Pod 或其中的 Container 能够使用资源的最大默认值
 

apiVersion: v1
kind: LimitRange     #使用 LimitRange 资源类型
metadata:
  name: mem-limit-range
  namespace: test    #可以给指定的 namespace 增加一个资源限制
spec:
  limits:
  - default:         #default 即 limit 的值
      memory: 512Mi
      cpu: 500m
    defaultRequest:   #defaultRequest 即 request 的值
      memory: 256Mi
      cpu: 100m
    type: Container  #类型支持 Container、Pod、PVC
  • LimitRange 示例中,mem-limit-range 为 test 命名空间中的所有容器设置了默认的内存和 CPU 限制:
  • default:设置了默认的资源限制值。
  • defaultRequest:设置了默认的资源请求值。
  • type:指定了这些限制适用于的类型,可以是 Container、Pod 或 PersistentVolumeClaim (PVC)。

通过这些资源限制,Kubernetes 管理员可以精细地控制集群资源的使用,避免资源浪费,并确保集群的稳定性和效率。这些限制对于多租户环境或需要严格资源管理的场景尤为重要。

六、温故而知新

6.1HPA

  • HPA:为控制器管理的Pod资源的副本数量实现自动伸缩
  • 原理:追踪控制器管理的Pod负载情况,来根据设置的阀值动态的调整Pod副本的数量
  • Metrics-Server:收集K8s当中的node、Pod等资源使用情况,使用Kubectl top node/pod命令
  • Kubectl autoscale 控制器 --cpuprecent= 60 --min --max 最大值

6.2Kubectl 资源限制

  • Resource.Request/limits:限制Pod的容器的资源量
  • ResourceQuota:资源类型对命名空间的资源对象或者量 进行配额限制
  • LimitRanger:资源类型设置命名空间中 Pod(容器默认的)  资源限制 Limit Request

  • 15
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值