起因: 今天检查pod的时候 发现容器启动的events里readiness 有事件显示unhealthy 但是没有显示healthy状态,但是stateful状态已经是ready了,pod也是running状态,比较疑惑。怀疑是健康状态变成healthy是不显示在pod中的,只是改变了ready 0/1的状态。
现象如下 显示是ready,但是事件最后一条是unhealthy,没有显示恢复healthy
注意:运行时间超过一定时间events就空了 不知道是60min还是100min
statefulset 还未ready的时候 describe出来的红框中的ready对应也是False
statefulset 变成ready的时候 describe出来的红框中的ready对应为true
官方文档 如下,可惜这个镜像没法下载了,无法验证
apiVersion: v1
kind: Pod
metadata:
name: goproxy
labels:
app: goproxy
spec:
containers:
- name: goproxy
image: k8s.gcr.io/goproxy:0.1
ports:
- containerPort: 8080
readinessProbe:
tcpSocket:
port: 8080
initialDelaySeconds: 5
periodSeconds: 10
livenessProbe:
tcpSocket:
port: 8080
initialDelaySeconds: 15
periodSeconds: 20
# 如你所见,TCP 检测的配置和 HTTP 检测非常相似。 下面这个例子同时使用就绪和存活探测器。kubelet 会在容器启动 5 秒后发送第一个就绪探测。 这会尝试连接 `goproxy` 容器的 8080 端口。 如果探测成功,这个 Pod 会被标记为就绪状态,kubelet 将继续每隔 10 秒运行一次检测。
# 除了就绪探测,这个配置包括了一个存活探测。 kubelet 会在容器启动 15 秒后进行第一次存活探测。 就像就绪探测一样,会尝试连接 `goproxy` 容器的 8080 端口。 如果存活探测失败,这个容器会被重新启动。
打算自己验证一下。怀疑warning是中间刚开始探测的时候产生的events
这里为了测试 把初次检测的时间延长到100秒之后 原先是容器启动后30秒就检测 100秒容器应该已经启动过好readniess的port了,原先是30+10*3 共计60秒 *3是因为默认失败尝试3次
启动之后 查看pod的events
果然就没有那个warning 告警了。
将readiness的port修改一下 模拟ynhealthy情况
pod会一直处于unhealthy ,stateful也一直是not ready