readness健康性检测与maxSurge 和 maxUnavailable更新策略

对于多副本应用,当执行 Scale Up 操作时,新副本会作为 backend 被添加到 Service 的负责均衡中,与已有副本一起处理客户的请求。考虑到应用启动通常都需要一个准备阶段,比如加载缓存数据,连接数据库等,从容器启动到正真能够提供服务是需要一段时间的。我们可以通过 Readiness 探测判断容器是否就绪,避免将请求发送到还没有 ready 的 backend。
下面是示例应用的配置文件。

 

readness健康性检测与maxSurge 和 maxUnavailable更新策略

重点关注 readinessProbe 部分。这里我们使用了不同于 exec 的另一种探测方法 -- httpGet。Kubernetes 对于该方法探测成功的判断条件是 http 请求的返回代码在 200-400 之间。
schema 指定协议,支持 HTTP(默认值)和 HTTPS。
path 指定访问路径。
port 指定端口。
上面配置的作用是:

  1. 容器启动 10 秒之后开始探测。
  2. 如果 http://[container_ip]:8080/healthy 返回代码不是 200-400,表示容器没有就绪,不接收 Service web-svc 的请求。
  3. 每隔 5 秒再探测一次。
  4. 直到返回代码为 200-400,表明容器已经就绪,然后将其加入到 web-svc 的负责均衡中,开始处理客户请求。
  5. 探测会继续以 5 秒的间隔执行,如果连续发生 3 次失败,容器又会从负载均衡中移除,直到下次探测成功重新加入。
    对于 http://[container_ip]:8080/healthy,应用则可以实现自己的判断逻辑,比如检查所依赖的数据库是否就绪,示例代码如下

readness健康性检测与maxSurge 和 maxUnavailable更新策略

① 定义 /healthy 的处理函数。
② 连接数据库并执行测试 SQL。
③ 测试成功,正常返回,代码 200。
④ 测试失败,返回错误代码 503。
⑤ 在 8080 端口监听。
对于生产环境中重要的应用都建议配置 Health Check,保证处理客户请求的容器都是准备就绪的 Service backend。
以上是 Health Check 在 Scale Up 中的应用,下一节我们讨论在 Rolling Update 中如果应用。

在滚动更新中使用 Health Check

kubectl rollout history deployment app.v
查看历史版本
kubectl rollout undo deployment app --to-revision=1
回退之前的版本
healthcheck]# kubectl rollout history deployment app
第146篇
在滚动更新中使用 Health Check
上一节讨论了 Health Check 在 Scale Up 中的应用,Health Check 另一个重要的应用场景是 Rolling Update。试想一下下面的情况:
现有一个正常运行的多副本应用,接下来对应用进行更新(比如使用更高版本的 image),Kubernetes 会启动新副本,然后发生了如下事件:

  1. 正常情况下新副本需要 10 秒钟完成准备工作,在此之前无法响应业务请求。
  2. 但由于人为配置错误,副本始终无法完成准备工作(比如无法连接后端数据库)。
    先别继续往下看,现在请花一分钟思考这个问题:如果没有配置 Health Check,会出现怎样的情况?
    因为新副本本身没有异常退出,默认的 Health Check 机制会认为容器已经就绪,进而会逐步用新副本替换现有副本,其结果就是:当所有旧副本都被替换后,整个应用将无法处理请求,无法对外提供服务。如果这是发生在重要的生产系统上,后果会非常严重。
    如果正确配置了 Health Check,新副本只有通过了 Readiness 探测,才会被添加到 Service;如果没有通过探测,现有副本不会被全部替换,业务仍然正常进行。
    下面通过例子来实践 Health Check 在 Rolling Update 中的应用。
    用如下配置文件 app.v1.yml 模拟一个 10 副本的应用:
    readness健康性检测与maxSurge 和 maxUnavailable更新策略

接下来滚动更新应用,配置文件 app.v2.yml 如下:

readness健康性检测与maxSurge 和 maxUnavailable更新策略

很显然,由于新副本中不存在 /tmp/healthy,是无法通过 Readiness 探测的。验证如下:

readness健康性检测与maxSurge 和 maxUnavailable更新策略

接下来滚动更新应用,配置文件 app.v2.yml 如下:

readness健康性检测与maxSurge 和 maxUnavailable更新策略

这个截图包含了大量的信息,值得我们详细分析。
先关注 kubectl get pod 输出:

  1. 从 Pod 的 AGE 栏可判断,最后 5 个 Pod 是新副本,目前处于 NOT READY 状态。
  2. 旧副本从最初 10 个减少到 8 个。
    再来看 kubectl get deployment app 的输出:
  3. DESIRED 10 表示期望的状态是 10 个 READY 的副本。
  4. CURRENT 13 表示当前副本的总数:即 8 个旧副本 + 5 个新副本。
  5. UP-TO-DATE 5 表示当前已经完成更新的副本数:即 5 个新副本。
  6. AVAILABLE 8 表示当前处于 READY 状态的副本数:即 8个旧副本。
    在我们的设定中,新副本始终都无法通过 Readiness 探测,所以这个状态会一直保持下去。
    上面我们模拟了一个滚动更新失败的场景。不过幸运的是:Health Check 帮我们屏蔽了有缺陷的副本,同时保留了大部分旧副本,业务没有因更新失败受到影响。
    接下来我们要回答:为什么新创建的副本数是 5 个,同时只销毁了 2 个旧副本?
    原因是:滚动更新通过参数 maxSurge 和 maxUnavailable 来控制副本替换的数量。
    maxSurge
    此参数控制滚动更新过程中副本总数的超过 DESIRED 的上限。maxSurge 可以是具体的整数(比如 3),也可以是百分百,向上取整。maxSurge 默认值为 25%。
    在上面的例子中,DESIRED 为 10,那么副本总数的最大值为:
    roundUp(10 + 10 25%) = 13
    所以我们看到 CURRENT 就是 13。
    maxUnavailable
    此参数控制滚动更新过程中,不可用的副本相占 DESIRED 的最大比例。 maxUnavailable 可以是具体的整数(比如 3),也可以是百分百,向下取整。maxUnavailable 默认值为 25%。
    在上面的例子中,DESIRED 为 10,那么可用的副本数至少要为:
    10 - roundDown(10
    25%) = 8
    所以我们看到 AVAILABLE 就是 8。
    maxSurge 值越大,初始创建的新副本数量就越多;maxUnavailable 值越大,初始销毁的旧副本数量就越多。
    理想情况下,我们这个案例滚动更新的过程应该是这样的:
  7. 首先创建 3 个新副本使副本总数达到 13 个。
  8. 然后销毁 2 个旧副本使可用的副本数降到 8 个。
  9. 当这 2 个旧副本成功销毁后,可再创建 2 个新副本,使副本总数保持为 13 个。
  10. 当新副本通过 Readiness 探测后,会使可用副本数增加,超过 8。
  11. 进而可以继续销毁更多的旧副本,使可用副本数回到 8。
  12. 旧副本的销毁使副本总数低于 13,这样就允许创建更多的新副本。
  13. 这个过程会持续进行,最终所有的旧副本都会被新副本替换,滚动更新完成。
    而我们的实际情况是在第 4 步就卡住了,新副本无法通过 Readiness 探测。这个过程可以在 kubectl describe deployment app 的日志部分查看。
    readness健康性检测与maxSurge 和 maxUnavailable更新策略

如果滚动更新失败,可以通过 kubectl rollout undo 回滚到上一个版本。

readness健康性检测与maxSurge 和 maxUnavailable更新策略

如果要定制 maxSurge 和 maxUnavailable,可以如下配置:
readness健康性检测与maxSurge 和 maxUnavailable更新策略

小结
本章我们讨论了 Kubernetes 健康检查的两种机制:Liveness 探测和 Readiness 探测,并实践了健康检查在 Scale Up 和 Rolling Update 场景中的应用。

<think>好的,用户现在问的是如何在Kubernetes中设置Pod启动失败时不执行新。我需要先理解用户的具体需求是什么。他们可能遇到了在部署或新应用时,如果新版本的Pod启动失败,Kubernetes仍然继续替换旧Pod的情况,这可能导致服务中断。用户希望在这种情况下阻止新,保持旧版本运行。 首先,我应该回忆Kubernetes中处理部署的策略,尤其是RollingUpdate相关的配置。默认情况下,Deployment会使用RollingUpdate策略,逐步替换旧Pod。如果新Pod无法启动,比如因为CrashLoopBackOff,默认情况下可能会继续尝试,导致服务不可用。用户希望在这种情况下停止新,保留旧Pod。 接下来,我需要考虑如何控制新过程。可能涉及到的配置包括Deployment的spec.strategy部分,特别是maxUnavailablemaxSurge参数。但这两个参数主要是控制同时不可用的Pod数量超出期望数量的Pod数量,可能不是直接解决用户的问题。 另一个方向是使用就绪探针存活探针来检测Pod的状态,但用户的问题是关于启动失败,这可能涉及容器启动阶段的探针,比如启动探针(startupProbe)。如果启动探针失败,Pod会一直重启,但Deployment的新策略可能需要其他设置来阻止继续新。 可能的关键点在于Deployment的progressDeadlineSeconds参数,这个参数定义了部署在失败前等待的时间。如果Pod无法进入就绪状态超过这个时间,部署会被标记为失败,停止新。需要确认这个参数的行为是否满足用户需求。 此外,Kubernetes的Pod回滚机制,比如使用rollback命令,或者设置revisionHistoryLimit来保留旧版本,可能也是解决方案的一部分。如果部署失败,用户可以手动回滚到之前的版本。 还需要考虑的是,Pod启动失败可能由多种原因引起,比如镜像拉取失败、配置错误等。这些情况下,Kubernetes会根据重启策略(restartPolicy)来处理,但对于Deployment来说,可能需要结合健康检查来确保新Pod成功启动后才继续新流程。 可能用户没有正确配置健康检查,导致Kubernetes无法判断新Pod是否真的启动成功,从而继续替换旧Pod。因此,设置合适的启动探针、存活探针就绪探针,可以确保只有健康的Pod才会被视为可用,从而阻止不健康的Pod替换旧版本。 总结下来,解决方案可能包括以下几个步骤: 1. 配置Deployment的RollingUpdate策略,调整maxUnavailable为0,确保在新过程中至少保留所有旧Pod,直到新Pod就绪。 2. 设置合适的健康检查(启动、存活、就绪探针),确保Kubernetes准确判断Pod状态。 3. 使用progressDeadlineSeconds来定义部署失败的超时时间,超时后停止新。 4. 结合自动回滚或手动回滚机制,及时处理失败的部署。 需要验证这些步骤是否有效,比如将maxUnavailable设为0,maxSurge设为1,这样在新时,会先启动新Pod,等待其就绪后再删除旧Pod。如果新Pod启动失败,旧Pod不会被删除,从而保持服务可用。同时,健康检查的设置可以确保只有通过检查的Pod才会被加入服务,避免将流量导向失败的Pod。 另外,可能需要考虑的是,如果新Pod一直无法启动,Deployment会处于阻塞状态,直到问题解决。用户需要监控部署状态,及时处理问题。这也涉及到设置适当的警报监控机制。 最后,应该提供一个配置示例,展示如何具体设置这些参数,比如Deployment的YAML文件片段,说明各个参数的作用,以及健康检查的配置方法。同时,提醒用户根据实际应用调整参数值,如超时时间检查间隔。</think>在 Kubernetes 中,如果希望 **Pod 启动失败时阻止新流程**(例如避免 Deployment 用新版本覆盖旧版本),可以通过以下方案实现: --- ### 一、核心思路 通过配置 **Deployment 的滚动新策略** **健康检查探针**,确保 **新 Pod 启动成功前,旧 Pod 不会被替换**。若新 Pod 无法通过健康检查,新流程将自动停止。 --- ### 二、具体配置步骤 #### 1. **设置滚动新策略** 在 Deployment 中定义 `strategy.rollingUpdate`,控制新时的 Pod 替换逻辑: ```yaml apiVersion: apps/v1 kind: Deployment metadata: name: my-app spec: strategy: type: RollingUpdate rollingUpdate: maxUnavailable: 0 # 新期间不允许任何旧 Pod 被终止 maxSurge: 1 # 允许临时创建 1 个新 Pod(用于验证其是否健康) replicas: 3 template: spec: containers: - name: app image: my-app:latest # 必须配置健康检查探针(见下一步) ``` **关键参数解释**: - `maxUnavailable: 0`:确保新时始终保留全部旧 Pod,直到新 Pod 完全就绪。 - `maxSurge: 1`:允许并行启动 1 个新 Pod 用于验证,避免阻塞新流程。 --- #### 2. **配置健康检查探针** 通过 **就绪探针(Readiness Probe)** **启动探针(Startup Probe)** 明确判断 Pod 是否健康: ```yaml readinessProbe: httpGet: path: /ready port: 8080 initialDelaySeconds: 10 # 容器启动后等待 10 秒开始检查 periodSeconds: 5 # 每 5 秒检查一次 failureThreshold: 3 # 连续失败 3 次后标记为未就绪 startupProbe: httpGet: path: /health port: 8080 failureThreshold: 30 # 允许最多 30 次检查失败 periodSeconds: 5 # 每 5 秒检查一次 ``` **作用**: - 新 Pod 必须通过 `startupProbe` `readinessProbe` 才会被视为可用。 - 若新 Pod 启动失败(例如无法通过探针检查),旧 Pod 不会被删除。 --- #### 3. **监控新状态** 若新 Pod 持续无法启动,Deployment 会处于阻塞状态: ```bash kubectl rollout status deployment/my-app ``` 输出示例: ``` Waiting for deployment "my-app" rollout to finish: 1 out of 3 new replicas have been updated... ``` 此时旧 Pod 仍正常运行,流量不会切换到新 Pod。 --- ### 三、自动回滚机制(可选) 若希望自动回滚到上一个可用版本,可配置 `rollbackTo` 策略(需结合 Kubernetes 1.21+): ```yaml spec: minReadySeconds: 60 # 等待 60 秒确认新 Pod 稳定 revisionHistoryLimit: 5 # 保留 5 个历史版本用于回滚 progressDeadlineSeconds: 600 # 若 600 秒内未完成新,标记为失败 ``` 当新 Pod 持续失败超过 `progressDeadlineSeconds` 时间,新会自动终止,并可通过命令手动回滚: ```bash kubectl rollout undo deployment/my-app ``` --- ### 四、完整配置示例 ```yaml apiVersion: apps/v1 kind: Deployment metadata: name: safe-update-app spec: replicas: 3 strategy: type: RollingUpdate rollingUpdate: maxUnavailable: 0 maxSurge: 1 selector: matchLabels: app: safe-app template: metadata: labels: app: safe-app spec: containers: - name: app image: my-app:v2 ports: - containerPort: 8080 readinessProbe: httpGet: path: /ready port: 8080 initialDelaySeconds: 10 periodSeconds: 5 failureThreshold: 3 startupProbe: httpGet: path: /health port: 8080 failureThreshold: 30 periodSeconds: 5 ``` --- ### 五、总结 通过以下组合实现 **Pod 启动失败不执行新**: 1. **滚动新策略**:`maxUnavailable: 0` 确保旧 Pod 保留至新 Pod 就绪。 2. **健康检查探针**:明确验证新 Pod 的可用。 3. **自动回滚**:超时后终止新,避免服务中断。 **适用场景**: - 关键业务需要零停机新 - 新版本存在潜在启动风险(如依赖未就绪、配置错误等)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Cloud孙文波

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值