对于多副本应用,当执行 Scale Up 操作时,新副本会作为 backend 被添加到 Service 的负责均衡中,与已有副本一起处理客户的请求。考虑到应用启动通常都需要一个准备阶段,比如加载缓存数据,连接数据库等,从容器启动到正真能够提供服务是需要一段时间的。我们可以通过 Readiness 探测判断容器是否就绪,避免将请求发送到还没有 ready 的 backend。
下面是示例应用的配置文件。
重点关注 readinessProbe
部分。这里我们使用了不同于 exec
的另一种探测方法 -- httpGet
。Kubernetes 对于该方法探测成功的判断条件是 http 请求的返回代码在 200-400 之间。
schema
指定协议,支持 HTTP
(默认值)和 HTTPS
。path
指定访问路径。port
指定端口。
上面配置的作用是:
-
容器启动 10 秒之后开始探测。
-
如果
http://[container_ip]:8080/healthy
返回代码不是 200-400,表示容器没有就绪,不接收 Serviceweb-svc
的请求。 -
每隔 5 秒再探测一次。
-
直到返回代码为 200-400,表明容器已经就绪,然后将其加入到
web-svc
的负责均衡中,开始处理客户请求。 -
探测会继续以 5 秒的间隔执行,如果连续发生 3 次失败,容器又会从负载均衡中移除,直到下次探测成功重新加入。
对于 http://[container_ip]:8080/healthy
,应用则可以实现自己的判断逻辑,比如检查所依赖的数据库是否就绪,示例代码如下:
① 定义 /healthy
的处理函数。
② 连接数据库并执行测试 SQL。
③ 测试成功,正常返回,代码 200。
④ 测试失败,返回错误代码 503。
⑤ 在 8080 端口监听。
对于生产环境中重要的应用都建议配置 Health Check,保证处理客户请求的容器都是准备就绪的 Service backend。
以上是 Health Check 在 Scale Up 中的应用
下面是nginx-ingress-controller的健康检查,可以参考:
[root@k8s-master ~]# cat ingress-controller.yaml
[root@k8s-master ~]# kubectl get pod -o wide -n ingress-nginx
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-ingress-controller-dbw6g 1/1 Running 0 13m 192.168.179.103 k8s-node1 <none> <none>
nginx-ingress-controller-nvnj4 1/1 Running 0 13m 192.168.179.104 k8s-node2 <none> <none>
livenessProbe:
failureThreshold: 3
httpGet:
path: /healthz
port: 10254
scheme: HTTP
initialDelaySeconds: 10
periodSeconds: 10
successThreshold: 1
timeoutSeconds: 10
readinessProbe:
failureThreshold: 3
httpGet:
path: /healthz
port: 10254
scheme: HTTP
periodSeconds: 10
successThreshold: 1
timeoutSeconds: 10
[root@k8s-master ~]# curl 192.168.179.103:10254/healthz
ok
[root@k8s-master ~]# curl -I 192.168.179.103:10254/healthz
HTTP/1.1 200 OK
Content-Type: text/plain; charset=utf-8
X-Content-Type-Options: nosniff
Date: Fri, 18 Dec 2020 14:26:46 GMT
Content-Length: 2