容器网络通,但业务网络不通,怎么办?

本着为大家分享有用的技能和知识的原则,专门出了一个解决 bug 的主题分享。具体的 bug 描述可以看下面

问题一描述: 

某线上业务有 A,B 两个集群,集群之间存在横向访问, 当 A 集群中的某个容器(A.a)重建(发布更新)之后发现,(A.a)可以 ping 通 B 集群中的(B.b)容器,而通过 curl 和 telnet 业务端口的时候是连接被拒绝;第一直觉是业务自身的问题,就在 B.b 容器里启动了 python 测试服务, 在 A.a 容器里通过 curl 测试也没通,那到底是不是业务自身的问题?该如何排查此类呢? 是不是 k8s 或 docker 的 bug 呢?

 

问题二描述:

大家都知道 etcd 作为 k8s 集群的核心数据存储系统,堪称是 k8s 的大脑,所以 etcd 的稳定级别要求不言而喻了,那么大家试想一下, 如果 etcd 里的数据假如被误删了,后果会怎么样呢?该如何做 etcd 的故障演练呢?通过故障演练又会引发出哪个 k8s api-server 的 bug 呢?

如果你也有遇到类似的问题或者你想要知道面对这些问题时该如何下手解决?那就来听听我们明晚的分享课ÿ

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值