使用RSS提升DPDK应用的性能

什么是RSS

RSS(Receive Side Scaling)是一种能够在多处理器系统下使接收报文在多个CPU之间高效分发的网卡驱动技术。

  • 网卡对接收到的报文进行解析,获取IP地址、协议和端口五元组信息
  • 网卡通过配置的HASH函数根据五元组信息计算出HASH值,也可以根据二、三或四元组进行计算。
  • 取HASH值的低几位(这个具体网卡可能不同)作为RETA(redirection table)的索引
  • 根据RETA中存储的值分发到对应的CPU

下图描述了完整的处理流程:

基于RSS技术程序可以通过硬件在多个CPU之间来分发数据流,并且可以通过对RETA的修改来实现动态的负载均衡。

在DPDK中配置RSS

DPDK支持设置静态hash值和配置RETA。 不过DPDK中RSS是基于端口的,并根据端口的接收队列进行报文分发的。 例如我们在一个端口上配置了3个接收队列(0,1,2)并开启了RSS,那么 中就是这样的:

{0,1,2,0,1,2,0.........}

运行在不同CPU的应用程序就从不同的接收队列接收报文,这样就达到了报文分发的效果。

在DPDK中通过设置rte_eth_conf中的mq_mode字段来开启RSS功能, rx_mode.mq_mode = ETH_MQ_RX_RSS

当RSS功能开启后,报文对应的rte_pktmbuf中就会存有RSS计算的hash值,可以通过pktmbuf.hash.rss来访问。 这个值可以直接用在后续报文处理过程中而不需要重新计算hash值,如快速转发,标识报文流等。

RETA是运行时可配置的,这样应用程序就可以动态改变CPU对应的接收队列,从而动态调节报文分发。 具体通过PMD模块的驱动进行配置,例如ixgbe_dev_rss_reta_updateixgbe_dev_rss_reta_query

对称RSS

在网络应用中,如果同一个连接的双向报文在开启RSS之后被分发到同一个CPU上处理,这种RSS就称为对称RSS。 对于需要为连接保存一些信息的网络应用来说,对称RSS对性能提升有很大帮助。 如果同一个连接的双向报文被分发到不同的CPU,那么两个CPU之间共享这个连接的信息就会涉及到锁,而锁显然是会影响性能的。

RSS一般使用Toeplitz哈希算法,该算法有两个输入:一个默认的hash key和从报文中提取的五元组信息。 DPDK使用的默认hash key是微软推荐的,具体定义见lib/librte_pmd_e1000/igb_rxtx.c:1539, 同一个连接的不同方向使用这个默认值计算出来的hash值是不一样的。

具体讲就是{src: 1.1.1.1, dst: 2.2.2.2, srcport: 123, dstport: 456}和{src: 2.2.2.2, dst: 1.1.1.1, srcport: 456, dstport: 123} 计算出来的hash值是不一样的,hash值不一样就会导致两个方向的报文被分发到不同的接收队列,由不同的CPU进行处理。

如果想达到对称RSS的效果,那么需要使用其他hash key替换掉DPDK目前使用的。 在论文《Scalable TCP Session Monitoring with Symmetric Receive-side Scaling》中提到了一个hash key可以做到对称RSS

这里给出hash key的值,具体原理可以参考论文。

static uint8_t rss_intel_key[40] = { 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, 0x6D, 0x5A, };


原文

DPDK(Data Plane Development Kit)是一个开源的软件开发工具包,用于加速数据平面应用程序的性能。它提供了一组优化的库和驱动程序,可以直接操作网络接口卡(NIC),绕过操作系统内核,实现高性能的数据包处理。 在传统的网络数据包处理中,数据包需要经过操作系统内核的网络协议栈进行处理,这会引入较大的延迟和性能损耗。而使用DPDK应用程序可以直接访问和操作网络接口卡,绕过内核,从而实现更低的延迟和更高的吞吐量。 DPDK网卡驱动性能提升的主要原因有以下几点: 1. 零拷贝技术:DPDK使用了零拷贝技术,即数据包在内存中的传递过程中避免了不必要的数据拷贝操作。传统的网络数据包处理需要多次数据拷贝,而DPDK通过使用大页内存和直接内存访问(DMA)技术,实现了数据包在内存中的直接传递,减少了数据拷贝带来的性能损耗。 2. 多队列技术:DPDK支持多队列技术,即将网络流量分发到多个队列中进行处理。每个队列都可以由独立的处理核心进行处理,从而实现并行处理,提高了系统的吞吐量和并发性能。 3. 用户态驱动程序:DPDK的驱动程序运行在用户态,而不是内核态。这样可以避免用户态和内核态之间的上下文切换,减少了系统调用的开销,提高了数据包处理的性能。 4. 轮询模式:DPDK使用轮询模式来处理数据包,而不是中断模式。传统的网络数据包处理需要通过中断来通知应用程序有新的数据包到达,而DPDK通过轮询方式主动检查网络接口卡上是否有新的数据包到达,减少了中断处理的开销,提高了系统的响应速度和吞吐量。 5. 内存管理:DPDK使用了自己的内存管理机制,通过预先分配大页内存和使用内存池技术,减少了内存分配和释放的开销,提高了系统的性能和稳定性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值