【k8s】网络插件(二十)


前言

【k8s】利用Kubeadm搭建多节点的Kubernetes集群(七),我们为 Kubernetes 安装了一个网络插件 Flannel。都与网络相关,但也只是浅尝辄止,并没有太多深究。

Flannel 到底是如何工作的呢?它为什么能够让 Kubernetes 集群正常通信呢?还有没有其他网络插件呢?

今天我们就来聊一下这个话题,讲讲 Kubernetes 的网络接口标准 CNI,以及 Calico、Cilium 等性能更好的网络插件。


提示:以下是本篇文章正文内容,下面案例可供参考

一、Kubernetes 的网络模型

在说 Kubernetes 的网络之前,我们还是要先简单回顾一下 Docker 的网络知识。

docker有三种网络模式:null、host 和 bridge

这里画了一张图,描述了 Docker 里最常用的 bridge 网络模式:
在这里插入图片描述
Docker 会创建一个名字叫docker0的网桥,默认是私有网段172.17.0.0/16。每个容器都会创建一个虚拟网卡对(veth pair),两个虚拟网卡分别在容器和网桥上,这样容器之间就可以互联互通了。

Docker 的网络方案简单有效,但问题是它只局限在单机环境里工作,跨主机通信非常困难(需要做端口映射和网络地址转换)。

针对 Docker 的网络缺陷,Kubernetes 提出了一个自己的网络模型“IP-per-pod”,能够很好地适应集群系统的网络需求,它有下面的这 4 点基本假设:

  • 集群里的每个 Pod 都会有唯一的一个 IP 地址。
  • Pod 里的所有容器共享这个 IP 地址。
  • 集群里的所有 Pod 都属于同一个网段。
  • Pod 直接可以基于 IP 地址直接访问另一个 Pod,不需要做麻烦的网络地址转换(NAT)。

我画了一张 Kubernetes 网络模型的示意图,你可以看一下:
在这里插入图片描述

这个网络让 Pod 摆脱了主机的硬限制,是一个平坦的网络模型,很好理解,通信自然也非常简单。

因为 Pod 都具有独立的 IP 地址,相当于一台虚拟机,而且直连互通,也就可以很容易地实施域名解析、负载均衡、服务发现等工作,以前的运维经验都能够直接使用,对应用的管理和迁移都非常友好。

什么是 CNI

Kubernetes 定义的这个网络模型很完美,但要把这个模型落地实现就不那么容易了。所以 Kubernetes 就专门制定了一个标准: CNI(Container Networking Interface)

CNI 为网络插件定义了一系列通用接口,开发者只要遵循这个规范就可以接入 Kubernetes,为 Pod 创建虚拟网卡、分配 IP 地址、设置路由规则,最后就能够实现IP-per-pod网络模型。

依据实现技术的不同,CNI 插件可以大致上分成Overlay RouteUnderlay三种。

  • Overlay 的原意是“覆盖”,是指它构建了一个工作在真实底层网络之上的“逻辑网络”,把原始的 Pod 网络数据封包,再通过下层网络发送出去,到了目的地再拆包。因为这个特点,它对底层网络的要求低,适应性强,缺点就是有额外的传输成本,性能较低。
  • Route 也是在底层网络之上工作,但它没有封包和拆包,而是使用系统内置的路由功能来实现 Pod 跨主机通信。它的好处是性能高,不过对底层网络的依赖性比较强,如果底层不支持就没办法工作了。
  • Underlay 就是直接用底层网络来实现 CNI,也就是说 Pod 和宿主机都在一个网络里,Pod 和宿主机是平等的。它对底层的硬件和网络的依赖性是最强的,因而不够灵活,但性能最高。

自从 2015 年 CNI 发布以来,由于它的接口定义宽松,有很大的自由发挥空间,所以社区里就涌现出了非常多的网络插件,我们之前在【k8s】利用Kubeadm搭建多节点的Kubernetes集群(七)里提到的 Flannel 就是其中之一。

Flannel(https://github.com/flannel-io/flannel/)由 CoreOS 公司(已被 Redhat 收购)开发,最早是一种 Overlay 模式的网络插件,使用 UDP 和 VXLAN 技术,后来又用 Host-Gateway 技术支持了 Route 模式。Flannel 简单易用,是 Kubernetes 里最流行的 CNI 插件,但它在性能方面表现不是太好,所以一般不建议在生产环境里使用。

现在还有两个常用 CNI 插件:CalicoCilium,我们做个简略的介绍。
在这里插入图片描述

  • Calico(https://github.com/projectcalico/calico)是一种 Route 模式的网络插件,使用 BGP 协议(Border Gateway Protocol)来维护路由信息,性能要比 Flannel 好,而且支持多种网络策略,具备数据加密、安全隔离、流量整形等功能。
  • Cilium(https://github.com/cilium/cilium)是一个比较新的网络插件,同时支持 Overlay 模式和 Route 模式,它的特点是深度使用了 Linux eBPF 技术,在内核层次操作网络数据,所以性能很高,可以灵活实现各种功能。在 2021 年它加入了 CNCF,成为了孵化项目,是非常有前途的 CNI 插件。

二、CNI 插件是怎么工作的

Flannel 比较简单,我们先以它为例看看 CNI 在 Kubernetes 里的工作方式。

我们先来在实验环境里用 Deployment 创建 3 个 Nginx Pod,作为研究对象:

kubectl create deploy ngx-dep --image=nginx:alpine --replicas=3

使用命令 kubectl get pod 可以看到,有两个 Pod 运行在 master 节点上,IP 地址分别是10.10.0.3``10.10.0.4,另一个 Pod 运行在 worker 节点上,IP 地址是10.10.1.77
在这里插入图片描述

Flannel 默认使用的是基于 VXLAN 的 Overlay 模式,整个集群的网络结构我画了一张示意图,你可以对比一下 Docker 的网络结构:
在这里插入图片描述
从单机的角度来看的话,Flannel 的网络结构和 Docker 几乎是一模一样的,只不过网桥换成了cni0,而不是docker0

接下来我们来操作一下,看看 Pod 里的虚拟网卡是如何接入 cni0 网桥的。

在 Pod 里执行命令 ip addr 就可以看到它里面的虚拟网卡eth0

$ kubectl exec -it ngx-dep-bfbb5f64b-j9n5n -- ip addr

在这里插入图片描述
你需要注意它的形式,第一个数字3是序号,意思是第 3 号设备,@if45就是它另一端连接的虚拟网卡,序号是 45。

因为这个 Pod 的宿主机是 master,我们就要登录到 master 节点,看看这个节点上的网络情况,同样还是用命令 ip addr:
在这里插入图片描述
这里就可以看到宿主机(master)节点上的第 45 号设备了,它的名字是 veth41586979@if3,veth表示它是一个虚拟网卡,而后面的@if3就是 Pod 里对应的 3 号设备,也就是eth0网卡了。

那么cni0网桥的信息该怎么查看呢?这需要在宿主机(master)上使用命令 brctl show
在这里插入图片描述

从这张截图里,你可以发现cni0网桥上有 4 个虚拟网卡,第三个就是veth41586979,所以这个网卡就被在了cni0网桥上,然后因为虚拟网卡的“结对”特性,Pod 也就连上了“cni0”网桥。

使用同样的方式,你可以知道另一个 Pod 10.10.0.4的网卡是 veth2b3ef56d@if3,它也在cni0网桥上,所以借助这个网桥,本机的 Pod 就可以直接通信。

弄清楚了本机网络,我们再来看跨主机的网络,它的关键是节点的路由表,用命令 route 查看:
![在这里插入图片描述](https://img-blog.csdnimg.cn/24355714015d4381886de179457c51e1.png

它告诉我们有这些信息:

  • 10.10.0.0/24 网段的数据,都要走 cni0 设备,也就是“cni0”网桥。
  • 10.10.1.0/24 网段的数据,都要走 flannel.1 设备,也就是 Flannel。
  • 192.168.10.0/24 网段的数据,都要走 ens160 设备,也就是我们宿主机的网卡。

假设我们要从 master 节点的10.10.0.3访问 worker 节点的10.10.1.77,因为 master 节点的cni0网桥管理的只是10.10.0.0/24这个网段,所以按照路由表,凡是10.10.1.0/24都要让 flannel.1 来处理,这样就进入了 Flannel 插件的工作流程。

然后 Flannel 就要来决定应该如何把数据发到另一个节点,在各种表里去查询。因为这个过程比较枯燥,我就不详细说了,你可以参考下面的示意图,用到的命令有 ip neighbor、bridge fdb 等等:

大致处理流程就是:根据发送网段取出对段flannel网卡mak地址(举例:ip neighbor|grep 10.10.1) -> 根据mak地址表得到对端宿主机IP(bridge fdb|grep flannel)-> 然后通过本机宿主机转发出去(esn160)

Flannel 得到的结果就是要把数据发到192.168.10.220,也就是 worker 节点,所以它就会在原始网络包前面加上这些额外的信息,封装成 VXLAN 报文,用“ens160”网卡发出去,worker 节点收到后再拆包,执行类似的反向处理,就可以把数据交给真正的目标 Pod 了。

三、使用 Calico 网络插件

下面看看另一个 Route 模式的插件 Calico。

你可以在 Calico 的官网上找到它的安装方式,我选择的是“本地自助安装(Self-managed on-premises)”,可以直接下载 YAML 文件:

curl https://raw.githubusercontent.com/projectcalico/calico/v3.25.1/manifests/custom-resources.yaml -O

由于 Calico 使用的镜像较大,为了加快安装速度,可以考虑在每个节点上预先使用 docker pull 拉取镜像:

// 根据安装的版本拉取对应版本 我这里是v3.25.1
docker pull calico/cni:v3.25.1
docker pull calico/node:v3.25.1
docker pull calico/kube-controllers:v3.25.1

Calico 的安装非常简单,只需要用 kubectl apply 就可以(记得安装之前最好把 Flannel 删除):

kubectl apply -f custom-resources.yaml

安装之后我们来查看一下 Calico 的运行状态,注意它也是在kube-system名字空间:
在这里插入图片描述
我们仍然创建 3 个 Nginx Pod 来做实验:

kubectl create deploy ngx-dep --image=nginx:alpine --replicas=3

我们会看到 master 节点上有两个 Pod,worker 节点上有一个 Pod,但它们的 IP 地址与刚才 Flannel 的明显不一样了,分别是“10.10.32.”和“10.10.236.”,这说明 Calico 的 IP 地址分配策略和 Flannel 是不同的:
在这里插入图片描述
然后我们来看看 Pod 里的网卡情况,你会发现虽然还是有虚拟网卡,但宿主机上的网卡名字变成了 calie0eb64421dd@if4,而且并没有连接到“cni0”网桥上:
在这里插入图片描述
在这里插入图片描述
其实这是 Calico 的工作模式导致的正常现象。因为 Calico 不是 Overlay 模式,而是 Route 模式,所以它就没有用 Flannel 那一套,而是在宿主机上创建路由规则,让数据包不经过网桥直接到目标网卡去。
在这里插入图片描述
假设 Pod A“10.10.32.163”要访问 Pod B“10.10.32.169”,那么查路由表,知道要走“calic80475f3496”这个设备,而它恰好就在 Pod B 里,所以数据就会直接进 Pod B 的网卡,省去了网桥的中间步骤。

至于在 Calico 里跨主机通信是如何路由的,你完全可以对照着路由表,一步步地“跳”到目标 Pod 去(提示:tunl0 设备)。

总结

  1. Kubernetes 使用的是“IP-per-pod”网络模型,每个 Pod 都会有唯一的 IP 地址,所以简单易管理。
  2. CNI 是 Kubernetes 定义的网络插件接口标准,按照实现方式可以分成“Overlay”“Route”和“Underlay”三种,常见的 CNI 插件有 Flannel、Calico 和 Cilium。
  3. Flannel 支持 Overlay 模式,它使用了 cni0 网桥和 flannel.1 设备,本机通信直接走 cni0,跨主机通信会把原始数据包封装成 VXLAN 包再走宿主机网卡发送,有性能损失。
  4. Calico 支持 Route 模式,它不使用 cni0 网桥,而是创建路由规则,把数据包直接发送到目标网卡,所以性能高。
  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: k8s网络插件-flannel 部署: 1. 安装etcd Flannel需要etcd来存储网络配置信息,因此需要先安装etcd。可以使用以下命令安装: ``` $ sudo apt-get update $ sudo apt-get install etcd ``` 2. 下载flannel二进制文件 可以从github上下载flannel的二进制文件,例如: ``` $ wget https://github.com/coreos/flannel/releases/download/v.13.1/flannel-v.13.1-linux-amd64.tar.gz $ tar -zxvf flannel-v.13.1-linux-amd64.tar.gz ``` 3. 部署flannel 可以使用以下命令部署flannel: ``` $ sudo ./flanneld --etcd-endpoints=http://<etcd-ip>:2379 --iface=<interface> ``` 其中,`<etcd-ip>`是etcd的IP地址,`<interface>`是flannel要使用的网络接口。 4. 配置kubelet 在每个节点上,需要配置kubelet以使用flannel。可以在kubelet的启动参数中添加以下参数: ``` --network-plugin=cni --cni-conf-dir=/etc/cni/net.d --cni-bin-dir=/opt/cni/bin ``` 5. 部署flannel网络 可以使用以下命令部署flannel网络: ``` $ kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml ``` 6. 验证flannel网络 可以使用以下命令验证flannel网络是否正常: ``` $ kubectl get pods --all-namespaces -o wide ``` 如果所有的pod都处于Running状态,则说明flannel网络已经正常部署。 ### 回答2: 在Kubernetes集群中,网络插件是一个非常重要的组件,负责实现集群中各个节点之间的通信,同时也支持容器和宿主机之间的通信。Flannel就是一款常见的Kubernetes网络插件,下面将为你介绍Flannel如何部署。 1. 编写Flannel配置文件 在部署Flannel之前,需要先编写Flannel的配置文件。创建一个yaml文件,填写以下内容: ``` apiVersion: v1 kind: ConfigMap metadata: name: kube-flannel-cfg namespace: kube-system data: cni-conf.json: | { "name": "cbr0", "plugins": [ { "type": "flannel", "delegate": { "hairpinMode": true, "isDefaultGateway": true } }, { "type": "portmap", "capabilities": { "portMappings": true } } ] } ``` 保存文件为flannel-config.yaml。 2. 创建Flannel服务账号 创建一个服务账号,运行以下命令: ``` kubectl apply -f https:/raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml ``` 这个命令将会自动部署Flannel服务并创建相关资源。 3. 部署Flannel 接下来,运行以下命令来部署Flannel: ``` kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/v0.9.1/Documentation/kube-flannel.yml ``` 这个命令会创建一个DeamonSet对象,这个对象会在集群中的每个节点上运行一个Flannel容器。 4. 验证Flannel部署 在完成Flannel安装之后,可以通过运行以下命令来检查是否一切顺利: ``` kubectl get pods -n kube-system ``` 如果输出结果中包含有flannel开头的Pod,则表示Flannel已经成功部署。 总结 刚才我们介绍了如何在Kubernetes集群中部署Flannel网络插件,主要的步骤包括编写Flannel配置文件、创建Flannel服务账号、部署Flannel、验证Flannel部署等。通过这个过程,我们可以更加深入地了解Flannel的配置和使用方法,还可以通过这个代码来学习如何使用Kubernetes的API进行资源的创建和管理。 ### 回答3: k8s网络插件-flannel部署 k8s是一个分布式系统,为了实现各个节点之间的通信,需要有一个网络插件来管理网络连接。其中,Flannel就是最常用的一种网络插件,它主要的作用是将各个节点的IP地址进行转换,而流量则通过这些IP地址进行转发,从而实现多个节点之间的网络通信。 Flannel的部署主要分为以下几个步骤: 1.安装etcd 在节点中安装etcd,可以使用yum或apt-get等包管理器进行安装。在这个过程中,需要注意etcd的版本和操作系统之间的兼容性,以避免出现问题。 2.部署flannel 可以先下载最新的flannel二进制文件,然后将其部署到各个节点上。在这个过程中,需要修改flannel的配置文件,以指定etcd的地址和网络配置等相关信息。 3.配置kubelet和kube-proxy 为了让k8s系统能够正常地使用flannel网络插件,需要对kubelet和kube-proxy进行配置。可以通过修改它们的启动配置文件,将其网络模式设置为flannel,并指定相关参数。 4.测试网络连接 在完成以上步骤后,可以使用一些工具来测试节点之间的网络连接情况,例如ping命令和nslookup命令等。如果连接正常,就可以开始在k8s系统中进行容器的部署和管理了。 总的来说,Flannel是k8s系统中必不可少的一个组件,它可以帮助我们有效地管理节点之间的网络连接,从而达到更好的分布式系统效果。在部署Flannel时需要注意一些细节,以确保其正常运作,并加强系统的可靠性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值