网络虚拟化相关的Linux接口介绍

Linux拥有丰富的网络虚拟化功能,能被虚拟机,容器还有云网络使用。在这篇文章中,我会给出所有通用网络虚拟化接口的简要介绍。没有代码分析,只有简短的接口介绍和在Linux上的使用操作。这系列接口都可以使用ip link命令实现。

这篇文章介绍的网络虚拟化接口如下,有些接口容易与其他接口混淆:

  • Bridge
  • Bonded Interface
  • Team device
  • VLAN(Virtual LAN)
  • VXLAN
  • MACLAN
  • IPLAN
  • MACVTAP/IPVTAP
  • MACsec
  • VETH
  • VCAN
  • VXCAN

网桥

Linux的网桥表现起来就像一个网络交换机。它会在其连接的接口间转发数据包。它通常被使用在路由器,网关或一台主机上的虚拟机间和网络命名空间间转发数据包。它也支持STP,VLAN过滤和组播snooping。

Bridge diagram

当你想在虚拟机间,容器间,或主机间设置通信通道时,可以使用网桥来达到目的。

以下演示如何创建网桥:

# ip link add br0 type bridge
# ip link set eth0 master br0
# ip link set tap1 master br0
# ip link set tap2 master br0
# ip link set veth1 master br0

以上命令是先创建一个网桥设备br0,然后把两个TAP设备(tap1,tap2),一个VETH设备(veth1),和物理设备eth0关联到这个网桥,就像上面拓扑图显示的一样。

Bonded Interface

Linux聚合驱动提供了一种可以将多个网络接口聚合成一个单独的逻辑"bonded"接口的方法。聚合接口的行为取决于模式,一般来讲,模式有热备份或负载均衡模式。

Bonded interface

使用聚合接口,你可以在你的服务器上增加带宽或者实现故障转移。

以下演示如何创建一个聚合接口:

# ip link add bond1 type bond miimon 100 mode active-backup
# ip link set eth0 master bond1
# ip link set eth1 master bond1

上面使用热备份模式创建了一个聚合端口bond1,其他模式设置,可参看kernel documentation

Team device

类似于聚合端口,team device的目的是为了提供一种在二层网络将多个网络端口打包成一个逻辑端口的机制。

Team device

team设备并不是要复制或效仿一个聚合端口,而是要采用不同的方法,比如使用无锁数据流机制和模块化设计。

但bonded接口与team接口之间会有一些不同,比如,team接口支持LACP的负载均衡,NS/NA(IPV6)的链接检测,D-Bus接口等等,这些在聚合接口上都是不支持的。bonging和team之间的不同,可参考更详细的文档Bonding与Team的对比

使用team device,你会用到一些聚合端口不能提供的特性。

以下演示如何创建team接口:

# teamd -o -n -U -d -t team0 -c '{"runner": {"name": "activebackup"},"link_watch": {"name": "ethtool"}}'
# ip link set eth0 down
# ip link set eth1 down
# teamdctl team0 port add eth0
# teamdctl team0 port add eth1

以上以热备份模式创建了一个名叫team0的team接口,随后将eth0和eth1添加为team0的子接口。

最近一个新的名叫net_failover的驱动被添加到Linux里。如下图所示,将半虚拟化的网卡方案和passthru方案聚合成一个界面。增加了抵抗设备出错的风险。

Net_failover driver

VLAN

VLAN就是通过给网络数据包添加VLAN标签分割广播域。

VLAN的报文头看起来如下图所示:

VLAN header

使用VLAN,你就可以在虚拟机间,网络命名空间或主机间隔离出子网。

以下演示如何创建一个VLAN:

# ip link add link eth0 name eth0.2 type vlan id 2
# ip link add link eth0 name eth0.3 type vlan id 3

以上的命令是说在eth0上创建eth0.2带上VLAN 2标签;在eth0上创建eth0.3带上VLAN 3标签。

网络拓扑如下:

VLAN topology

注意:当你配置VLAN的是,你需要确保与主机直连的交换机是可以处理VLAN标签的,例如,将交换机端口设置为trunk模式。

VXLAN

VXLAN(Virtual eXtensible Local Area Network)一种隧道协议,被设计用来解决VLAN ID局限在4096个的问题上。VXLAN在IETF RFC 7348上有描述。

因为VNI有24位长度,VXLAN可以达到2^24(16777216)个虚拟机局域网,是VLAN的4096倍。

VXLAN将二层帧用VXLAN头封装金UDP-IP数据包内,封装格式如下图所示:

VXLAN encapsulates Layer 2 frames with a VXLAN header into a UDP-IP packet

VXLAN典型应用于数据中心的虚拟主机上,可在多种架构中部署。

Typical VXLAN deployment

以下演示创建VXLAN:

# ip link add vx0 type vxlan id 100 local 1.1.1.1 remote 2.2.2.2 dev eth0 dstport 4789

其他参考,你可以阅读VXLAN内核文档VXLAN介绍

MACVLAN

有了VLAN,你就可以在一个物理接口上创建多个带VLAN tag的逻辑接口,并根据VLAN tag过滤数据包。有了MACVLAN,你可以在一个物理接口上用不用的二层地址,也就是MAC地址创建多个逻辑接口。

在有MACVLAN之前,如果你想连接一个虚拟机或者网络命令空间的里物理网络,你可能需要创建TAP/VETH设备,并同时把这个设备与物理接口绑定到主机的网桥设备上,就下如下拓扑图所示:

Configuration before MACVLAN

现在,有了MACVLAN,你能将关联MACVLAN的物理接口直接绑定到命名空间里,而不在需要网桥。如下图所示:

Configuration with MACVLAN

一共有五种MACVLAN类型:

1. Private: 该模式下,各个端点只能与外界通信。MACVLAN端点之间不能通信。

Private MACVLAN configuration

2. VEPA: 该模式下,各个端点可以与外界通信。MACVLAN端点之间通信需要外部Switch支持一个叫发夹弯(hairpin)的功能才可以。

VEPA MACVLAN configuration

3. Bridge: 该模式下,各个端点之间可以通信,与外界也可以通信。功能和Bridge + VETH一致。

Bridge MACVLAN configuration

4. Passthru: 该模式可以让Container直接连接外部Switch。

Passthru MACVLAN configuration

5. Source: 该模式主要用于traffic过滤,是一种基于MAC的VLAN。可参考 源代码

可根据不同的需求选用不同的模式。Bridge模式是最常用的模式。

当你想从容器直连到物理网口就使用MACVLAN.

以下演示如何创建MACVLAN:

# ip link add macvlan1 link eth0 type macvlan mode bridge
# ip link add macvlan2 link eth0 type macvlan mode bridge
# ip netns add net1
# ip netns add net2
# ip link set macvlan1 netns net1
# ip link set macvlan2 netns net2

以上命令是创建两个新的网桥模式的MACVLAN设备,并将它们塞给两个不同的命名空间。

IPVLAN

IPVLAN与MACVLAN类似,不同点是IPVLAN的endpoints使用相同的MAC地址。区别如下图所示:

IPVLAN configuration

IPVLAN支持二层和三层模式。

IPVLAN的二层模式表现的像是网桥模式下的MACVLAN,父接口看起来就像一个网桥或者交换机。

IPVLAN L2 mode

IPVLAN的三层模式,父节点表现的就像一个路由器,数据包在endpoits间通过路由转发,提供更好的伸缩性。

IPVLAN L3 mode

MACVLAN与 IPVLAN在很多方面相似。下面介绍只需使用 IPVLAN 而非 MACVLAN的场景。

  • 1) 如果host连接的外部交换机只允许一个MAC地址。
  • 2) 如果出于性能考虑,需要关闭网卡混杂模式(promiscuous mode), MACVLAN需要网卡运行在混杂模式。
  • 3) 创建的virtual device 超过了父设备的MAC地址容量。
  • 4) 如果工作在不安全的L2网络。

以下演示如何创建IPVLAN实例:

# ip netns add ns0
# ip link add name ipvl0 link eth0 type ipvlan mode l2
# ip link set dev ipvl0 netns ns0

上面创建了一个L2模式的名为ipvl0的IPVLAN设备,并将ipvl0塞给命名空间ns0。

MACVTAP/IPVTAP

类似 MACVLAN用以取代 Bridge + VETH 来连接不同的namespace. MACVTAP 用以取代 Bridge + TUN/TAP来连接不同的VMs。MACVLAN / IPVLAN 连接不同的namespace, 旨在将Guest namespace和Host的网络接口直接程序给外部Switch。MACVTAP / IPVTAP 连接不同VMs, 内核为其创建了设备文件/dev/tapX,可以直接被虚拟化软件QEMU使用。MACVTAP与 IPVTAP的区别 和 MACVLAN 与 IPVLAN的区别相类似。

有了MACVTAP/IPVTAP,你就可以用一个单独的模块取代以前的TUN/TAP+Bridge的组合。

MACVTAP/IPVTAP instance

以下演示如何创建MACVLAN实例:

# ip link add link eth0 name macvtap0 type macvtap

MACsec

MACsec(Media Access Control Security)是一种为大局域网安全设计的IEEE标准。类似于IPsec,只是工作在二层,MACsec不仅保护IP报文,还保护ARP,邻居发现报文和DHCP报文。MACsec报文头格式如下:

MACsec header

MACsec的主要应用场景是加密标准局域网里的所有信息,包括ARP,NS,和DHCP消息。

MACsec configuration

以下演示如何设置MACsec配置: 

# ip link add macsec0 link eth1 type macsec

注意: 上述配置只在eth1接口上添加了一个名家macsec0的MACsec设备。

为查看更详细的配置信息,可查看“MACsec introduction by Sabrina Dubroca”文章的"Configuration example"章节。

VETH

VETH(虚拟以太)设备是一个本地的以太网隧道。设备是成对创建的,具体拓扑如下图所示。

当数据包传输到配对设备上的一个时,另一个设备也会立刻收到数据包。当其中一个配对设备下线时,另一个设备也会下线。

Pair of VETH devices

当namespaces间需要相互通信时,就要用到VETH配置了。

以下演示VETH配置:

# ip netns add net1
# ip netns add net2
# ip link add veth1 netns net1 type veth peer name veth2 netns net2

上面创建了两个namespaces,分别叫net1和net2,并配对为一对VETH设备veth1和veth2,并将veth1与net1绑定,veth2与net2绑定。这样两个namespaces就通过VETH设备对联系起来。分别给veth设备对分配IP地址,这样你就能让这两个namespaces相互通信了。

VCAN

与网络loopback设备类似,VCAN(virtual CAN)驱动提供一种虚拟CAN接口叫VCAN。具体参见内核CAN文档

以下演示如何创建一个VCAN设备:

# ip link add dev vcan1 type vcan

VXCAN

VXCAN可以作为一种本地隧道连接两个VCAN网络设备。与VETH类似,你会创建一个VXCAN对, 用于连接不同namespaces的VCAN。

以下演示设置一个VXCAN实例:

# ip netns add net1
# ip netns add net2
# ip link add vxcan1 netns net1 type vxcan peer name vxcan2 netns net2

注意: 在Red Hat Enterprise Linux系统上并不支持VXCAN.

IPOIB

An IPOIB device supports the IP-over-InfiniBand protocol. This transports IP packets over InfiniBand (IB) so you can use your IB device as a fast NIC.

The IPoIB driver supports two modes of operation: datagram and connected. In datagram mode, the IB UD (Unreliable Datagram) transport is used. In connected mode, the IB RC (Reliable Connected) transport is used. The connected mode takes advantage of the connected nature of the IB transport and allows an MTU up to the maximal IP packet size of 64K.

For more details, please see the IPOIB kernel documentation.

Use an IPOIB device when you have an IB device and want to communicate with a remote host via IP.

Here's how to create an IPOIB device:

# ip link add ib0 name ipoib0 type ipoib pkey IB_PKEY mode connected

NLMON

NLMON是一个Netlink检测设备。

当你想要检测系统的Netlink消息时,可使用NLMON设备。

以下演示如何创建一个NLMON设备:

# ip link add nlmon0 type nlmon
# ip link set nlmon0 up
# tcpdump -i nlmon0 -w nlmsg.pcap

This creates an NLMON device named nlmon0 and sets it up. Use a packet sniffer (for example, tcpdump) to capture Netlink messages. Recent versions of Wireshark feature decoding of Netlink messages.

参考链接

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
AlphachnVSIP服务器虚拟化解决方案 VSIP服务器虚拟化解决方案全文共35页,当前为第1页。 内容大纲 VSIP虚拟化系统概述 VSIP虚拟化系统功能 VSIP虚拟化系统性能 VSIP虚拟化系统安全性 VSIP虚拟化系统兼容性 VSIP成功客户应用案例 关于盛思睿 VSIP服务器虚拟化解决方案全文共35页,当前为第2页。 VSIP服务器虚拟化技术    VSIP系统提供基于Linux内核的KVM(Kernel-based Virtual Machine)虚拟机,通过软硬件模拟具有完整硬件系统功能的、运行在一个完全隔离环境中的完整计算机系统,把一台X86物理服务器虚拟成若干个独立的虚拟服务器,支持裸金属架构和全虚拟化,兼具良好的虚拟化性能、可靠性、兼容性和安全性。 进程隔离 强制访问控制(MAC) 基于角色的访问控制 裸金属架构 认证 审计跟踪 CC安全评估级 CC安全测试用例集 FIPS 140-2 认证加密 源代码开放 资源控制 磁盘加密 VSIP服务器虚拟化解决方案全文共35页,当前为第3页。 数据中心虚拟化   数据中心基础架构(Data Center Infrastructure)是指支撑各类应用程序相关信息进行集中存储、处理、传输、交换、管理等功能和服务所需的各类服务器、网络、存储设备及其安全可靠运行所需要的环境及物理支持。 VSIP虚拟化 VSIP服务器虚拟化解决方案全文共35页,当前为第4页。 VSIP系统总体架构    VSIP 服务器虚拟化系统采用基于智能代理的分布式系统架构。 … … VSIP主管理服务器   VSIP主管理服务器实现对多个资源池所属的大量资源服务器进行统一虚拟化管理、资源调度和运行监控。 VSIP资源池服务器   资源池服务器(又称为宿主服务器)基于安全高效的Linux KVM虚拟机技术在服务器硬件和操作系统之间引入虚拟化层,将一台物理机从逻辑上划分成多个虚拟机。 多级存储系统   存储用于集中存放虚拟机文件、虚拟机模板、软件镜像、备份等资源池相关数据文件。 VSIP SAG安全访问网关   安全访问网关可以为虚拟机提供统一的远程管理入口,对远程访问虚拟机的帐号行为进行记录和控制。 VSIP服务器虚拟化解决方案全文共35页,当前为第5页。 VSIP系统逻辑架构 虚拟资源层:虚拟计算资源(虚拟机)、虚拟存储资源(虚拟磁盘)和虚拟网络资源(虚拟网卡、虚拟交换机。 资源数据层:资源网格模型与数据、虚拟机模板数据、软件镜像数据、事件和日志数据、物理机和虚拟机历史监控数据。 资源调度控制层:任务及任务策略在线编辑、分布式任务调度、任务调度规则管理、调度任务监控、任务队列监控。 资源管理层:资源池管理、物理机和虚拟机全生命周期管理、虚拟机模板管理、软件镜像管理、存储管理、网络管理、系统管理。 交互接入层:基于Web浏览器的可视化配置管理工具;基于安全访问网关的虚拟机Web远程管理;基于REST的物理机和虚拟机的生命周期管理、虚拟机快照管理、虚拟机迁移管理等API接口。 VSIP服务器虚拟化解决方案全文共35页,当前为第6页。 VSIP系统部署架构 管理 工作站 windows/Linux 应用网 交换机 管理网 交换机 主管理 服务器 存储网 交换机 资源池 服务器 SAN存储 虚拟机及应用对外服务交换网络,1Gb以上网络连接 存储交换网络,虚拟机文件及备份数据交换,至少10Gb以上网络连接 运行虚拟机的宿主服务器,CPU必须支持VT技术,CPU总核心数量至少8核,内存容量大于16GB 运行VSIP管理服务的主控服务器,单台服务器CPU总核心数量至少4核,内存容量大于8GB 主管理服务器监控与远程管理宿主服务器的交换网络,至少千兆网络连接 集中存储虚拟机文件及备份数据,支持FC-SAN或IP-SAN Internet/ Intranet VSIP服务器虚拟化解决方案全文共35页,当前为第7页。 内容大纲 VSIP虚拟化系统概述 VSIP虚拟化系统功能 VSIP虚拟化系统性能 VSIP虚拟化系统安全性 VSIP虚拟化系统兼容性 VSIP成功客户应用案例 关于盛思睿 VSIP服务器虚拟化解决方案全文共35页,当前为第8页。 VSIP系统核心功能视图 能管理多个不同的资源池(不同用途或服务级别); 能支持对资源池资源(CPU、内存、存储、物理主机、虚拟机)整体利用状态进行监视; …… 能提供对虚拟机的查询、启动、停止、暂停/恢复、重启等基本控制操作; 能支持通过系统软件镜像启动创建、虚拟机模板克隆复制等多种方式创建单台或批量虚拟机; 能支持虚拟机的vCPU、内存、磁盘、网卡等资源停机或在线动态追加; 能支持虚拟机的备份和快照管理; 能支持虚拟机在线迁移和跨存储迁移; …… 能提供对物理服务器详细配

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值