- 创建 Deployment:
apiVersion: apps/v1
kind: Deployment
metadata:
name: myapp-deployment
spec:
replicas: 3
selector:
matchLabels:
app: myapp
template:
metadata:
labels:
app: myapp
spec:
containers:
- name: myapp-container
image: myapp:latest
resources:
limits:
cpu: "1"
memory: "1Gi"
requests:
cpu: "0.5"
memory: "500Mi"
- 创建 HorizontalPodAutoscaler:
apiVersion: autoscaling/v2beta2
kind: HorizontalPodAutoscaler
metadata:
name: myapp-hpa
spec:
scaleTargetRef:
apiVersion: apps/v1
kind: Deployment
name: myapp-deployment
minReplicas: 1
maxReplicas: 10
metrics:
- type: Resource
resource:
name: cpu
target:
type: Utilization
averageUtilization: 50
在上面的示例中,我们创建了一个名为"myapp-deployment"的Deployment,它包含了3个Pod副本。每个Pod定义了资源限制和请求,以便HPA可以根据CPU利用率来自动扩展Pod数量。
然后,我们创建了一个名为"myapp-hpa"的HorizontalPodAutoscaler。它将目标引用设置为"myapp-deployment",并定义了最小和最大Pod副本数量。在metrics部分,我们指定了监控的资源类型为CPU,并设置了目标平均利用率为50%。这意味着,如果Pod的CPU利用率超过50%,HPA将自动增加Pod的数量,以满足负载需求。
你可以将上述配置保存为一个YAML文件(例如,myapp-autoscale.yaml
),然后使用以下命令将其应用到Kubernetes集群中:
kubectl apply -f myapp-autoscale.yaml
Kubernetes将根据配置创建Deployment和HPA资源,并自动进行Pod的自动扩展。
请注意,此配置仅用于示例目的,你需要根据你的具体应用程序和负载情况进行适当的调整和配置。另外,确保你的集群中已启用HPA功能,并且有足够的资源可用来支持自动扩展的Pod数量。