本文参考下面这篇论文,只挑取了其中关于 OVS 和 OVS-DPDK 对比的部分进行讲解,更多内容,大家有兴趣可以看论文:
https://networkbuilders.intel.com/docs/open-vswitch-enables-sdn-and-nfv-transformation-paper.pdf
OVS 目前有两种比较突出的架构,一种是原生的 OVS 架构(使用 kernel 作为 datapath),一种是基于 DPDK 的架构(使用用户空间作为 datapath)。
原生 OVS
原生 OVS 架构如下所示,主要包含两个组件:
openvswitch.ko :在内核态负责快速路径的数据转发。转发靠流表来完成,每一个流表都包含很多的匹配项(match fields)和相应的动作(actions)
-
match fields : 定义了能够标识一个数据包的头部字段
actions : 定义了能够对这个数据包操作的动作,比如添加或去除 VLAN 标签、修改数据包的某个头部字段,以及控制数据包从端口的进出等等。
ovs-vswitchd :在用户态负责慢速路径的数据转发。
-
ofproto: 实现 OpenFlow 交换机
netdev: 和网络设备(包括物理的和虚拟的)交互的抽象接口层
dpif: 用户空间数据转发路径的实现
OVS-DPDK
基于 DPDK 的 OVS 架构如下所示,其中深色部分的模块就是引入 DPDK 相关的模块。
dpif-netdev : 用户空间中快速路径的实现,它实现了
dpif
模块 API,可以直接操作netdev
设备,能够实现数据包在用户空间的快速处理,减少和内核空间的切换开销。ofproto-dpif : 实现了
ofproto
模块 API,直接操作dpif
层。netdev-dpdk : 使用 DPDK 库实现了
netdev
模块 API,提供了多种类型的接口,如下:-
Physical ports(PMDs) : 使用
vfio
或者igb_uio
实现的端口dpdkvhostuser and dpdkvhostcuse: 使用
librte_vhost
库实现的端口,用户可以基于这两种端口类型创建vhost-user
和vhost-cuse
端口来完成用户空间的数据转发,并且能够实现和 VM 的快速通信,只要提供 virtio 后端驱动 vhost 即可,