cisco实现各个节点之间互相ping通_Kubernetes网络实现

当今K8s独霸天下之时,咱们站在更高的角度,好好地看看K8s的网络是以什么理念构筑的,以及一个容器集群的好保姆,是如何分别照顾南北流量和东西流量的。

01

世界上的集群都一个样

有点标题党哈,不过我接触过的各种集群也不少,各种各样:

  1. OpenStack:在一大堆物理机上面,管理(启动/停止)VM的。

  2. SGE,Slurm,PBS:在一大堆电脑集群里面,管理(启动/停止)App的。

  3. Yarn:在一大堆电脑集群里面,管理(启动/停止)大数据App的。

  4. CloudFoundry:在一大堆电脑集群里面,管理(启动/停止)容器的

  5. Kubernetes:在一大堆电脑集群里面,管理(启动/停止)容器的。

它们都有一些共同特点:

跨节点跑xx程序

ff999c70e7df1eaaad781a71a374ea22.png

这个xx程序一定是首先单机可以运行的。比如OpenStack:单机上面可以用qemu启动VM,想跨节点管理VM,就引入了OpenStack。Kubernetes也一样:单机上面可以跑Docker容器;想跨节点管理容器,就得引入集群管理老大的概念。

有一个管事的老大

  1. 集群管理的老大,负责让手下的某个小弟干活。别管是命令式(直接下命令)的,还是申明式(发告示)的,小弟收到命令后,乖乖干活就是了。

  2. 同时,这个集群管理的老大,需要有脑子,不然小弟数量多了管不好。所以它需要拿笔记一记。比如OpenStack的老大得带个Mysql数据库;Kubernetes把笔记记在了ETCD里面(不过ETCD这个本子太小,记得东西不能太大,这是另话)。

  3. 不管哪种老大,都得有个军师。一个新活来到老大这里,那么多小弟,指派给谁不是干呀。这活实际分配给哪个小弟,这得军师说了算,所以每中集群软件都自己写了一套 Scheduler 算法,可谓程序员间浪费重复轮子之典型代表。

小弟上面都有一个Agent

b15988d5618768bdaee2c1136c0311d4.png

这个小弟上面的Agent,时刻向老大汇报自己的状态:活不活着,忙还是闲,方便老大派活。同时,Agent也就是那台电脑里面的地头蛇了,帮忙老大负责各种临时事物。只是大家的取名不一样:

  • OpenStack:取名Nova

  • Kubernetes:取名Kubelet

  • Yarn:取名NodeManager

老大怎么给小弟发号施令

一般老大都是通过:消息队列来,给小弟发号施令的,而不是亲自上门(直连)下达命令。原因么,当然是小弟可能临时出门(故障)了呗~ 直接上门可能不通,放消息队列里面就可靠多了。等小弟出差回来,还能看到老大下达的任务令。

  • OpenStack:用 RabbitMQ 发号施令

  • Kubernetes:用 ETCD 发号施令

  • CloudFoundry:用 NATS 发号施令

上面这些组件都是带消息通知的功能,区别有些有名,有些没那么出名罢了。

比如我们的K8s:

c951192272f4a4f603f631b0a9549ba4.png

特别需要提一下:K8s这个老大不简单,找了个ETCD这个好帮手。这小家伙挺神,既能当笔记本记点事情(代替OpenStack中的Mysql),又能当公告牌,通知点消息(代替OpenStack中的Rabbit)。所以K8s这个容器集群管理相对OpenStack这个虚机管理不需要数据库,666~

02

K8s怎么设计容器网络

南北流量

要看到K8s诞生的时候,那时是有CloudFoundry和Docker的,且都已经比较成熟。那时作为PaaS一哥的CF对容器网络的抽象:

af06661558817bbce3bf90036907fa3b.png

主要考虑平台外部,怎么访问容器里面的App。而平台内部的App之间如何互相访问,几乎没有太多的设计。

由上图所示,可以看到,平台外部访问,一般都是上下画的,所以也叫做南北流量。我们这么叫,也是便于程序员之间沟通和理解。

ps:PaaS的基本原型大致都这样

553e8918de3f1511c98475b62b200453.png

东西流量

K8s吸取了前辈们的精华,除了平台外部访问App,还新增考虑了平台内部,App之间如何互相访问。

7bcb071c07698cd3de79f0b4a5101137.png

即K8s通过增加一个负载均衡的“LB”设备,来搞定平台内部的App间互相访问。给每个App取个别名,在LB上面登记一下,就可以被内部其他App访问。

由上图所示,可以看到,平台内部访问,一般都是水平画的,所以也叫做东西流量。一个完整的PaaS平台,就是需要南北流量+东西流量,全套治理的。

Docker原生访问方式

Docker容器可以通过“节点IP+节点Port”的方式访问到容器。原理的容器所在节点,设置了NAT规则。报文一到达节点,根据目的端口,转发进入容器。

6338c742c3157c290108e49753f6ce8e.png

小结K8s中3种访问容器的通道

  1. 通过南北流量(从集群外部访问App)访问App容器

  2. 通过东西流量(集群内App之间)访问App容器

  3. 通过Docker原生自带的方式,访问App容器

03bb194cd45f46b9a94edcb5920c7bdc.png

03

K8s怎么实现容器访问

虽然K8s上面,有多种访问App容器的方法。但是不管用什么方式访问,一个App想要能被访问,就得得到K8s的同意。K8s把这个许可证叫做“Service”:也就是不管什么南北流量、东西流量,你的App想要能被访问,就得先申请Service许可证。

南北流量

要实现一个App的访问通道,一定要2个东西:

(1)LB负载均衡器 + (2)注册映射关系。

映射关系就是:报文来了,应该转发给哪个App实例? 即:找到 “哪个App + 哪个实例”。

负载均衡器,一般大家爱用Nginx,不过也有其他类型的实现。

a39cc125d44828c875f5a1134adbb105.png

K8s比CF聪明的地方是,没有自己去实现LB。而只定义了App需要怎么样才能登记到LB上面。即只定规范,不限制实现(这种思路,在k8s里面好多,比如存储的CSI,运行时的CRI的,容器网络的CNI 都是这样。)

  • 4层LB

    最简单的4层LB实现,K8s取了个名字:LoadBalancer(1)。

    即定义:xx协议+xx端口 =》xx应用,具体规则自己去看资料。

  • 7层LB

    为了定义7层LB的规则,K8s给规范取了名字:Ingress(2)。

    即定义:xx网址+xx-URL路径 =》xx应用,具体规则也自己看K8s资料。

南北LB都是全局级的,即:全局一个(HA多实例,咱也当一个整体)就行;不需要每个Slaver节点上一个。

东西流量

东西流量,也一样,需要LB+规则注入。这里,K8s设计就比较有意思。

25ede3cb31e238e5e0b9eade968331d4.png

逻辑上,如上图所示。在LB部分的实现上,K8s很巧妙的要求每个节点上面都一个“小LB”。

f76a8dcddd82c10bfbb276c07fd0f41c.png

所以实现上,大致如上图所示。

  • 本地LB

    本地LB,要求每个节点都有。所以最开始的版本,K8s使用了Linux使用广泛的iptables来实现。

    后面由于iptables性能不是特别给力,又有了 IPVS 实现。然后其他各式各样的民间实现也有。

  • 本地控制器

    LB需要一个控制器,每个本地“小LB”带配备一个小控制器,一样的,也是每个节点一个。和小LB一一对应。K8s给它取了个名字:Kube-proxy

82f7af313b02eab74bc582be419b6ef1.png
  • 假IP地址

    每个K8s上的App,都可以申请“行走江湖的名号”,用来代表自己。K8s就会给你的App分配一个Service许可证,许可证上面带着“影子IP”,任何集群内部只要访问这个IP,就等于访问你的App。

3ed895b4b9de7bf08be6cfdd12cff8b0.png

实现上:

  1. 先到K8s那登记,说我想要个“名号”

  2. 通过后,K8s会告知每个节点上的本地LB

  3. 从此以后,每个LB都认识这个“影子IP”了,访问它,就代表访问对应App。

c69a37c35cc337ce2e951a48d7ecf423.png

由于这个“名号”是集群颁布的,所以仅在集群内有效。K8s取名:ClusterIP(3)。

Docker原生访问方式

除了上面几种访问方式,K8s也为原生的Docker访问通道留了个名字:NodePort(4)。

这种方式靠主机Host转发实现。既然是主机搞定,所以这条路和本地LB实现,就合并一起搞定了。

b4a97df8a330293defa9b823b3d6949c.png

如上图,K8s下发规则的时候,顺便把这条路的规则也下发下去。

ps:由于每个本地LB都收到了K8s的通告小皮鞭,所以每个K8s的节点,都开通了NodePort通道哦。即:无论哪个Slaver节点的Port都可以通往该App

小结

K8s在实现容器网络的时候,造了很多概念:

  • LoadBalancer

  • Ingress

  • ClusterIP

  • NodePort

本质都是一样的,就是LB+登记规范。

ps:具体本地LB怎么实现?有兴趣可以去看看Kube-proxy的代码解读。我本身不是很关心,因为其实你给每个节点安装一个 Nginx 也可以做到的。

04

总结

K8s的网络概念,特别是Service,是K8s里面的精华,务必需要搞明白。

  1.  K8s南北流量,用Loadbalancer(4层)和Ingress(7层)搞定。

  2. K8s的东西流量,用Service概念搞定。特别的,还给了个“行走江湖用的名号”,取名ClusterIP(一个不存在的假IP地址)。

  3. 容器所在Host组网,存在Docker原生通道,K8s给重新包装了个名字:NodePort。所以只要报文到达Slaver节点,就能通到容器里面。

另外,提一下一直没有说的东西(怕概念太多,影响理解):K8s的整个网络底座,是要求节点IP和容器IP是能互相连通的(即:在节点上面ping容器IP,是可以通的)。具体则是通过容器网络实现的。这个实现很多,Flannel,Calico等,本质要么隧道,要么子网(可以看看物理网络里面的《VLAN和Vxlan》篇,关于如何划分门派的篇章)。

9e8f0b9663cb39dbb97656c81320f316.gif

能力再升级,搭载鲲鹏920处理器

提供更高性能、易获取、易运维的算力平台

点击

5abc12fe3007172c64c855fe2f73593f.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值