《深入浅出DPDK》读书笔记(六):报文转发(run to completion、pipeline、精确匹配算法、最长前缀匹配LPM)

本文内容为读书笔记,摘自《深入浅出DPDK》


65.网络报文的处理和转发主要分为硬件处理部分与软件处理部分,由以下模块构成:

  • ❑Packet input:报文输入。
  • ❑Pre-processing:对报文进行比较粗粒度的处理。
  • ❑Input classification:对报文进行较细粒度的分流。
  • ❑Ingress queuing:提供基于描述符的队列FIFO。
  • ❑Delivery/Scheduling:根据队列优先级和CPU状态进行调度。
  • ❑Accelerator:提供加解密和压缩/解压缩等硬件功能。
  • ❑Egress queueing:在出口上根据QOS等级进行调度。
  • ❑Post processing:后期报文处理释放缓存。
  • ❑Packet output:从硬件上发送出去。

如图5-1所示,我们可以看到在浅色和阴影对应的模块都是和硬件相关的,因此要提升这部分性能的最佳选择就是尽量多地去选择网卡上或网络设备芯片上所提供的一些和网络特定功能相关的卸载的特性,而在深色软件部分可以通过提高算法的效率和结合CPU相关的并行指令来提升网络性能。了解了网络处理模块的基本组成部分后,我们再来看不同的转发框架下如何让这些模块协同工作完成网络包处理。

图5-1 网络处理模块细分


66.转发框架介绍

传统的Network Processor(专用网络处理器)转发的模型可以分为run to completion(运行至终结,简称RTC)模型和pipeline(流水线)模型。

1. pipeline模型

从名字上,就可以看出pipeline模型借鉴于工业上的流水线模型,将一个功能(大于模块级的功能)分解成多个独立的阶段,不同阶段间通过队列传递产品。这样,对于一些CPU密集和I/O密集的应用,通过pipeline模型,我们可以把CPU密集的操作放在一个微处理引擎上执行,将I/O密集的操作放在另外一个微处理引擎上执行。通过过滤器可以为不同的操作分配不同的线程,通过连接两者的队列匹配两者的处理速度,从而达到最好的并发效率。

2. run to completion模型

run to completion(运行至终结)模型是主要针对DPDK一般程序的运行方法,一个程序中一般会分为几个不同的逻辑功能,但是这几个逻辑功能会在一个CPU的核上运行,我们可以进行水平扩展使得在SMP的系统中多个核上执行一样逻辑的程序,从而提高单位时间内事务处理的量。但是由于每个核上的处理能力其实都是一样的,并没有针对某个逻辑功能进行优化,因此在这个层面上与pipeline模型比较,run to completion模型是不高效的。


67.我们分别通过Ezchip和AMCC这家公司的NP芯片来进行举例说明网络处理器上是如何使用这两种转发模型的。

如图5-2所示,在NPA中最主要的就是TOP(Task Optimized Processor)单元,每个TOP单元都是对特定的事务进行过优化的特殊微处理单元,在处理特定的事务时会在性能上有较大的提升,一个报文从Input进入后会经历五个不同的TOP单元,每个TOP的输出又会是下个TOP的输入,但是这种硬件模型决定了在报文的不同处理中必须按照TOP的顺序来进行,不可能先进行报文修改再进行报文查找。如果需要这种顺序的报文处理,NPA也可以实现,但必须从TOP修改这个单元将报文再回传到TOP解析上,但这样包的处理速度会大幅下降。

图5-2 Ezchip NPA基于pipeline的转发模型

如图5-3所示,在AMCC 345x的模型中,对于报文的处理没有特殊的运算单元,只有两个NP核,两个NP核利用已烧录的微码进行报文的处理,如果把运行的微码看成处理报文的逻辑,两个NP核上总共可以跑48个任务,每个任务的逻辑都共享一份微码,则同一时刻可以处理48份网络报文。

图5-3 AMCC 345x基于run to completion的转发模型

表5-1总结了pipeline和run to completion(RTC)这两种NP的优缺点。

表5-1 NP RTC与pipeline的比较

在了解了专用的网络处理器的转发模型后,我们如何把它们的思想运用到通用CPU上呢?通用CPU可以保证所写包处理软件的通用性,最大程度地保护开发成果,降低开发成本,而且可以按需使用硬件,部分资源进行计算密集型的数据处理,部分资源进行I/O密集型的报文处理,最大限度地降低资本投入。可是,通用处理器真的能高效处理网络报文吗?答案是肯定的,我们现在就来看看基于通用IA平台的DPDK中是怎么利用专用网络处理器中的这两种模型来进行高速包处理的。

从图5-4a的run to completion的模型中,我们可以清楚地看出,每个IA的物理核都负责处理整个报文的生命周期从RX到TX,这点非常类似前面所提到的AMCC的nP核的作用。

在图5-4b的pipeline模型中可以看出,报文的处理被划分成不同的逻辑功能单元A、B、C,一个报文需分别经历A、B、C三个阶段,这三个阶段的功能单元可以不止一个并且可以分布在不同的物理核上,不同的功能单元可以分布在相同的核上(也可以分布在不同的核上),从这一点可以看出,其对于模块的分类和调用比EZchip的硬件方案更加灵活。以下我们来看DPDK中这两种方法的优缺点。

图5-4 DPDK转发模型

表5-2 DPDK RTC与pipeline的比较


68.DPDK run to completion模型

普通的Linux网络驱动中的扩展方法如下:把不同的收发包队列对应的中断转发到指定核的local APIC(本地中断控制器)上,并且使得每个核响应一个中断,从而处理此中断对应的队列集合中的相关报文。而在DPDK的轮询模式中主要通过一些DPDK中eal中的参数-c、-l、-l core s来设置哪些核可以被DPDK使用,最后再把处理对应收发队列的线程绑定到对应的核上。每个报文的整个生命周期都只可能在其中一个线程中出现。和普通网络处理器的run to completion的模式相比,基于IA平台的通用CPU也有不少的计算资源,比如一个socket上面可以有独立运行的16运算单元(核),每个核上面可以有两个逻辑运算单元(thread)共享物理的运算单元。而多个socket可以通过QPI总线连接在一起,这样使得每一个运算单元都可以独立地处理一个报文并且通用处理器上的编程更加简单高效,在快速开发网络功能的同时,利用硬件AES-NI、SHA-NI等特殊指令可以加速网络相关加解密和认证功能。运行到终结功能虽然有许多优势,但是针对单个报文的处理始终集中在一个逻辑单元上,无法利用其他运算单元,并且逻辑的耦合性太强,而流水线模型正好解决了以上的问题。下面我们来看DPDK的流水线模型,DPDK中称为Packet Framework。


69.DPDK pipeline模型

pipeline的主要思想就是不同的工作交给不同的模块,而每一个模块都是一个处理引擎,每个处理引擎都只单独处理特定的事务,每个处理引擎都有输入和输出,通过这些输入和输出将不同的处理引擎连接起来,完成复杂的网络功能,DPDK pipeline的多处理引擎实例和每个处理引擎中的组成框图可见图5-5中两个实例的图片:zoom out(多核应用框架)和zoom in(单个流水线模块)。

图5-5 DPDK pipeline

Zoom out的实例中包含了五个DPDK pipeline处理模块,每个pipeline作为一个特定功能的包处理模块。一个报文从进入到发送,会有两个不同的路径,上面的路径有三个模块(解析、分类、发送),下面的路径有四个模块(解析、查表、修改、发送)。Zoom in的图示中代表在查表的pipeline中有两张查找表,报文根据不同的条件可以通过一级表或两级表的查询从不同的端口发送出去。

此外,从图5-5中的pipeline level我们知道,DPDK的pipeline是由三大部分组成的,逻辑端口(port)、查找表(table)和处理逻辑(action)。DPDK的pipeline模型中把网络端口作为每个处理模块的输入,所有的报文输入都通过这个端口来进行报文的输入。查找表是每个处理模块中重要的处理逻辑核心,不同的查找表就提供了不同的处理方法。而转发逻辑指明了报文的流向和处理,而这三大部分中的主要类型可参见表5-3。

表5-3 DPDK Port、Table、Action支持的类型

用户可以根据以上三大类构建数据自己的pipeline,然后把每个pipeline都绑定在指定的核上从而使得我们能快速搭建属于我们自己的packet framework。

现在DPDK支持的pipeline有以下几种:

  • ❑Packet I/O
  • ❑Flow classification
  • ❑Firewall
  • ❑Routing
  • ❑Metering
  • ❑Traffic Mgmt

DPDK以上的几个pipeline都是DPDK在packet framework中直接提供给用户的,用户可以通过简单的配置文件去利用这些现成的pipeline,加快开发速度。

以Routing pipeline为例可以有以下构建形式:

关于具体如何使用DPDK的packet framework去快速搭建属于自己的高性能网络应用,可以参考DPDK源码中的sample。

图5-6 DPDK Routing Pipeline


70.转发算法

除了良好的转发框架之外,转发中很重要的一部分内容就是对于报文字段的匹配和识别,在DPDK中主要用到了精确匹配(Exact Match)算法和最长前缀匹配(Longest Prefix Matching, LPM)算法来进行报文的匹配从而获得相应的信息。

DPDK中主要支持CRC32和J hash,这里主要介绍CRC相关的内容和优化。

其实,精确匹配主要需要解决两个问题:进行数据的签名(哈希),解决哈希的冲突问题。CRC32和J hash是两个数字签名的不同算法。我们先来看下CRC。

CRC检验原理实际上就是在一个p位二进制数据序列之后附加一个r位二进制检验码(序列),从而构成一个总长为n=p+r位的二进制序列;附加在数据序列之后的这个检验码与数据序列的内容之间存在着某种特定的关系。如果因干扰等原因使数据序列中的某一位或某些位发生错误,这种特定关系就会被破坏。因此,通过检查这一关系,就可以实现对数据正确性的检验。

CRC中的两个主要概念如下:

(1)多项式模2运行:

实际上是按位异或(Exclusive OR)运算,即相同为0,相异为1,也就是不考虑进位、借位的二进制加减运算。如:10011011+11001010=01010001。

(2)生成多项式:

当进行CRC检验时,发送方与接收方需要事先约定一个除数,即生成多项式,一般记作G(x)。生成多项式的最高位与最低位必须是1。常用的CRC码的生成多项式有:

CRC8=X8+X5+X4+1
CRC-CCITT=X16+X12+X5+1
CRC16=X16+X15+X5+1
CRC12=X12+X11+X3+X2+1
CRC32=X32+X26+X23+X22+X16+X12+X11+X10+X8+X7+X5+X4+X2+X1+1

每一个生成多项式都可以与一个代码相对应,如CRC8对应代码100110001。

计算示例:

设需要发送的信息为M=1010001101,产生多项式对应的代码为P=110101, R=5。在M后加5个0,然后对P做模2除法运算,得余数r(x)对应的代码:01110。故实际需要发送的数据是101000110101110,见图5-9。

在CRC32的算法上DPDK做了以下的优化:

首先,将数据流按照8字节(优先处理)和4字节为单位进行处理,以8字节为例:

  • 方法一:当支持CRC32_SSE42_x64时,可以直接使用IA的硬件指令来一次处理:指令8crc32q。
  • 方法二:当支持CRC32_SSE42时,可以直接使用IA的硬件指令来一次处理:指令crc32l。

图5-9CRC计算示例

  • 方法三:当不允许或不能使用硬件相关指令进行加速操作时,可以直接使用查表的方法进行,利用空间换时间。

具体的哈希性能,DPDK有相关的单元测试,有兴趣的读者可以参考DPDK的源代码。

在处理哈希的冲突时用了如下的定义:

 

在rte的一个哈希桶中将会有RTE_哈希_哈希桶_ENTRIES个entry来解决冲突问题,可以说融合了分离链表和开放地址方法的优点。

在处理哈希、找到对应的数据时,DPDK提供了rte_哈希_lookup_multi。这个函数利用了multi-buffer的方式降低了指令之间的依赖,增强了并行性,加快了哈希处理速度。

struct rte_哈希_哈希桶 {
    struct rte_哈希_signatures signatures[RTE_哈希_哈希桶_ENTRIES];
    /* Includes dummy key index that always contains index 0 */
    uint32_t key_idx[RTE_哈希_哈希桶_ENTRIES + 1];
    uint8_t flag[RTE_哈希_哈希桶_ENTRIES];
} __rte_cache_aligned;

71.最长前缀匹配算法

最长前缀匹配(Longest Prefix Matching, LPM)算法是指在IP协议中被路由器用于在路由表中进行选择的一个算法。

因为路由表中的每个表项都指定了一个网络,所以一个目的地址可能与多个表项匹配。最明确的一个表项——即子网掩码最长的一个——就叫做最长前缀匹配。之所以这样称呼它,是因为这个表项也是路由表中与目的地址的高位匹配得最多的表项。

例如,考虑下面这个IPv4的路由表(这里用CIDR来表示):

192.168.20.16/28
192.168.0.0/16

DPDK中LPM的具体实现综合考虑了空间和时间,见图5-10。

前缀的24位共有2^24条条目,每条对应每个24位前缀,每个条目关联到最后的8位后缀上,最后的256个条目可以按需进行分配,所以说空间和时间上都可以兼顾。

当前DPDK使用的LPM算法就利用内存的消耗来换取LPM查找的性能提升。当查找表条目的前缀长度小于24位时,只需要一次访存就能找到下一条,根据概率统计,这是占较大概率的,当前缀大于24位时,则需要两次访存,但是这种情况是小概率事件。

LPM主要结构体为:一张有2^24条目的表,多个有2^8条目的表。第一级表叫做tbl24,第二级表叫做tbl8。

❑tbl24中条目的字段有:

struct rte_lpm_tbl24_entry { 
    /* Stores Next hop or group index (i.e. gindex)into tbl8. */ 
    union { 
        uint8_t next_hop; 
        uint8_t tbl8_gindex; 
    }; 
    /* Using single uint8_t to store 3 values. */ 
    uint8_t valid      :1; /**< Validation flag. */ 
    uint8_t ext_entry :1; /**< External entry. */ 
    uint8_t depth      :6; /**< Rule depth. */ 
}; 

图5-10 DPDK LPM框图

❑tbl8中每条entry的字段有:

struct rte_lpm_tbl8_entry { 
    uint8_t next_hop; /**< next hop. */ 
    /* Using single uint8_t to store 3 values. */ 
    uint8_t valid         :1; /**< Validation flag. */ 
    uint8_t valid_group :1; /**< Group validation flag. */ 
    uint8_t depth         :6; /**< Rule depth. */ 
}; 

用IP地址的前24位进行查找时,先看tbl24中的entry,当valid字段有效而ext_entry为0时,直接命中,查看next_hop知道下一跳。当valid为1而ext_entry为1时,查看next_hop字段知道tbl8的index,此时根据IP中的后8位确定tbl8中具体entry的下标,然后根据rte_lpm_tbl8_entry中的next_hop找下一跳地址。

同样,关于具体的LPM性能,DPDK也有相关的单元测试,有兴趣的读者可以参考DPDK的源代码。


72.ACL算法

ACL库利用N元组的匹配规则去进行类型匹配,提供以下基本操作:

❑创建AC(access domain)的上下文。

❑加规则到AC的上下文中。

❑对于所有规则创建相关的结构体。

❑进行入方向报文分类。

❑销毁AC相关的资源。

现在的DPDK实现允许用户在每个AC的上下文中定义自己的规则,AC规则中的字段用以下方式结构体进行表示:

struct rte_acl_field_def { 
    uint8_t   type;          /**< type - RTE_ACL_FIELD_TYPE_*. */ 
    uint8_t   size;          /**< size of field 1,2,4, or 8. */ 
    uint8_t   field_index; /**< index of field inside the rule. */ 
    uint8_t   input_index; /**< 0-N input index. */ 
    uint32_t offset;        /**< offset to start of field. */ 
}; 

如果要定义一个ipv4 5元组的过滤规则,可以用以下方式:

struct rte_acl_field_def ipv4_defs[NUM_FIELDS_IPV4] = { 
    { 
    .type = RTE_ACL_FIELD_TYPE_BITMASK, 
    .size = sizeof(uint8_t), 
    .field_index = PROTO_FIELD_IPV4, 
    .input_index = PROTO_FIELD_IPV4, 
    .offset = offsetof(struct ipv4_5tuple, proto), 
    }, 
    { 
    .type = RTE_ACL_FIELD_TYPE_MASK, 
    .size = sizeof(uint32_t), 
    .field_index = SRC_FIELD_IPV4, 
    .input_index = SRC_FIELD_IPV4, 
    .offset = offsetof(struct ipv4_5tuple, ip_src), 
    }, 
    { 
    .type = RTE_ACL_FIELD_TYPE_MASK, 

    .size = sizeof(uint32_t), 
    .field_index = DST_FIELD_IPV4, 
    .input_index = DST_FIELD_IPV4, 
    .offset = offsetof(struct ipv4_5tuple, ip_dst), 
    }, 
    { 
    .type = RTE_ACL_FIELD_TYPE_RANGE, 
    .size = sizeof(uint16_t), 
    .field_index = SRCP_FIELD_IPV4, 
    .input_index = SRCP_FIELD_IPV4, 
    .offset = offsetof(struct ipv4_5tuple, port_src), 
    }, 
    { 
    .type = RTE_ACL_FIELD_TYPE_RANGE, 
    .size = sizeof(uint16_t), 
    .field_index = DSTP_FIELD_IPV4, 
    .input_index = SRCP_FIELD_IPV4, 
    .offset = offsetof(struct ipv4_5tuple, port_dst), 
    }, 
}; 

而定义规则时有以下几个字段需要注意:

priority:定义了规则的优先级。

category_mask:表明规则属于哪个分类。

userdata:当最高优先级的规则匹配时,会使用此userdata放入category_mask中指定的下标中。

ACL常用的API见表5-4。

表5-4 DPDK ACL常用API

ACL主要思路就是创建了Tier相关的数据结构,匹配字段中每个字段中的每个字节都会作为Tier中的一层进行匹配,每一层都作为到达最终匹配结果的一个路径。关于具体的ACL相关的使用,有兴趣的读者可以参考DPDK的源代码。


73.报文分发

Packet distributor(报文分发)是DPDK提供给用户的一个用于包分发的API库,用于进行包分发。主要功能可以用图5-11进行描述。

图5-11 DPDK Redistributor框图

从图5-11中可以看出,一般是通过一个distributor分发到不同的worker上进行报文处理,当报文处理完后再通过worker返回给distributor,具体实现可以参考DPDK的源代码。本书只列举出以下几个点:

❑Mbuf中的tag可以通过硬件的卸载功能从描述符中获取,也可以通过纯软件获取,DPDK的distributor负责把新产生的stream关联到某一个worker上并记录此Mbuf中的哈希值,等下一次同样stream的报文再过来的时候,只会放到同一tag对应的编号最小的worker中对应的backlog中。

❑distributor主要处理的函数是rte_distributor_process,它的主要作用就是进行报文分发,并且如果第一个worker的backlog已经满了,可能会将相同的流分配到不同的worker上。

❑worker通过rte_distributor_get_pkt来向distributor请求报文。

❑worker将处理完的报文返回给distributor,然后distributor可以配合第3章提到的ordering的库来进行排序。


系列文章

《深入浅出DPDK》读书笔记(一):基础部分知识点

《深入浅出DPDK》读书笔记(二):网卡的读写数据操作

《深入浅出DPDK》读书笔记(三):NUMA - Non Uniform Memory Architecture 非统一内存架构

《深入浅出DPDK》读书笔记(四):并行计算-SIMD是Single-Instruction Multiple-Data(单指令多数据)

《深入浅出DPDK》读书笔记(五):同步互斥机制

 

  • 3
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: DPDK(Data Plane Development Kit)是一种高性能数据面开发工具包。深入浅出DPDK是一份详细介绍DPDK的PDF文档,适合初学者了解DPDK的基本概念和使用方法。 该文档从DPDK的介绍开始,介绍了DPDK的发展历史、使用场景和目标。接着详细介绍了DPDK的架构,包括主要组件和数据流向。其中详细介绍了包管理的基本原理和流程、缓存池的管理方式、内存对齐和地址映射等内容。 文档还介绍了如何使用DPDK,包括DPDK的编译和安装、如何使用DPDK进行虚拟网络功能(VNF)处理,以及如何使用DPDK进行数据包嗅探和过滤等。 此外,该文档还介绍了DPDK的性能优化技巧,包括如何优化包接收和处理、如何使用多核心优化性能和如何配置DPDK与硬件交互。 总体而言,深入浅出DPDK是一份非常有价值的文档,它不仅为初学者提供了详细的DPDK介绍和使用指南,还涵盖了DPDK的高级主题和性能优化技巧,为使用DPDK进行高性能数据面开发的人员提供了重要的参考资料。 ### 回答2: DPDK(Data Plane Development Kit)是一个高性能数据平面开发工具包,它使用用户态技术实现了零拷贝的数据处理和高速的数据包转发。作为一款开源工具,DPDK已经被广泛应用于虚拟化、云计算及网络功能虚拟化等领域。 《深入浅出dpdk》是一份由DPDK社区编写的指南,它的目的是帮助开发人员更好地了解DPDK,并使用DPDK构建高性能网络应用程序。该指南提供了详细的DPDK架构、API接口、应用案例和性能调优等方面的介绍,同时也介绍了其他相关技术,例如硬件加速、 NUMA架构、 数据库加速、分布式系统等。 《深入浅出dpdk》PDF版本可以从DPDK社区网站上自由下载,它包含了大量易懂的图表和代码实例,让开发人员更容易理解DPDK的概念和原理。对于想要在高性能数据平面开发方面取得突破的开发人员来说,这份指南是不可或缺的学习资料。 需要注意的是,《深入浅出dpdk》不仅是一份教材,更是一份指导开发人员如何使用DPDK进行数据平面开发的实际指南。开发人员在阅读本指南的同时,也需要具备一定的网络编程基础和C语言编程能力。同时,开发过程中还需要注意DPDK版本的兼容性和网络设备的支持情况。 ### 回答3: DPDK(Data Plane Development Kit)是一种高性能数据面开发工具包,它可以帮助开发人员快速地实现高性能网络应用程序。本篇文章解析的Deep Dive into DPDK的PDF文件是一份帮助初学者深入了解DPDK的指南,其中详细地介绍了DPDK的各种重要概念、特性和使用方法。 首先,这份PDF文件详细介绍了DPDK的架构和工作原理。DPDK采用轮询机制减少了对内核的依赖,从而显著提高了网络数据处理的性能。此外,本文还介绍了DPDK中各种组件的作用和功能,例如EAL(Environment Abstraction Layer)、Mempool、Ring等。这些组件都是DPDK中重要的工具,它们可以帮助开发人员更好地构建高性能应用程序。 其次,本文还介绍了如何使用DPDK来构建网络应用程序。首先,开发人员需要安装DPDK,并正确配置相应环境变量。其次,本文还介绍了如何使用DPDK的API来实现数据包的发送和接收。这些API提供了高效的数据传输方式和内存管理方式,开发人员可以根据自己的需求进行自定义。 此外,本文还介绍了DPDK的一些高级功能,例如NUMA支持、内存优化等。这些功能可以帮助开发人员更好地控制和管理系统资源,从而确保系统的高性能和稳定性。 总之,本文是一份非常实用的DPDK指南,其中介绍了DPDK的各种重要概念、特性和使用方法。初学者可以通过阅读这份文件,快速掌握DPDK的核心知识,为构建高性能应用程序打下牢固的基础。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值