DPDK Release 19.11

Merry Christmas

- 圣诞快乐 -

1.1. 新功能

Merry Christmas

•在FreeBSD中增加了对-base-virtaddr选项的支持。

DPDK的FreeBSD版本现在还支持设置基准虚拟地址,以便将页面和资源映射到其地址空间。

•为AARCH64添加了无锁栈。

为aarch64平台启用了无锁栈实现。

•扩展的pktmbuf mempool私有结构。

rte_pktmbuf_pool_private结构已扩展为包括flags字段,以便将来兼容。根据19.11版本,此字段是保留的,用户应将其设置为0。

+*改变了mempool分配行为。

更改了mempool分配行为,使对象在默认情况下不再跨页。注意,这可能会在使用小内存页时消耗更多内存。

•增加了对MBUF中动态字段和标志的支持。

这个新特性增加了在mbuf结构中为字段或标志动态注册空间的能力。这通常用于特定的卸载功能,因为在mbuf中添加静态字段或标志是不合理的。

•增加了对hairpin队列的支持。

在受支持的NIC上,我们现在可以设置hairpin队列,卸载从有线到有线的数据包。

•在RTE_FLOW中添加了flow标记。

添加了SET_TAG操作和标记项以支持瞬态流标记。

•RTE_FLOW中的扩展元数据支持。

流的元数据已经扩展到Rx和TX。

oTx元数据也可以通过RTE_FLOW的SET_META操作进行设置。

oRx元数据通过带有PKT_RX_DYNF_METADATA的rte_mbuf动态字段传递到主机。

•添加了ethdev API来设置支持的数据包类型。

增加了新的API rte_eth_dev_set_ptypes,它允许应用程序通知PMD要处理的数据包类型的减少。

o此方案将允许PMD避免在Rx上查找内部ptype表,从而提高Rx性能(如果应用程序希望这样做的话)。

•增加了Rx卸载标志,以启用或禁用RSS更新。

o添加了新的Rx卸载标志DEV_RX_OFFLOAD_RSS_HASH,可用于启用/禁用PMD写入RTE_MBUF::HASH::RSS。

OPMD通过在RTE_MBUF::OL_FLAGS中启用PKT_RX_RSS_HASH标志,向应用程序通知RTE_MBUF::HASH:RSS的有效性。

•增加了Rx/Tx数据包突发模式“获取”API。

增加了两个新函数rte_eth_rx_burst_mode_get和rte_eth_tx_burst_mode_get,允许应用程序检索有关RX/TX包突发的模式信息,例如标量或向量,以及AVX2等向量技术。

•增加海思半导体hns3 PMD。

为海思半导体鲲鹏920 SoC内置的海思半导体网络子系统3(hns3)网络引擎添加了新的hns3网络驱动程序。有关此新驱动程序的更多详细信息,请参阅HNS3轮询模式驱动程序指南。

•增加恩智浦PFE PMD。

为恩智浦LS1012A平台添加了新的PFE驱动器。有关这个新驱动程序的详细信息,请参阅PFE轮询模式驱动程序和网卡驱动程序指南。

•更新的Broadcom bnxt驱动程序。

更新了Broadcom bnxt驱动程序,增加了新功能和改进,包括:

增加了对热固件升级的支持。

增加了对错误恢复的支持。

增加了在硬件中查询和使用COS分类的支持。

Added LRO支持Thor设备。

将HWRM API更新到1.10.1.6版本

•更新了enic驱动器。

增加了对Geneve的支持和选项卸载。

增加了基于VIC flow Manager API的flow API实现。

•更新的iavf PMD。

使能iavf PMD的AVX2数据路径。

•更新了Intel e1000驱动程序。

增加了对RTE_ETH_DEV_CLOSE_REMOVE标志的支持。

•更新了Intel ixgbe驱动程序。

增加了对RTE_ETH_DEV_CLOSE_REMOVE标志的支持。

•更新了Intel i40e驱动程序。

增加了对RTE_ETH_DEV_CLOSE_REMOVE标志的支持。

•更新了Intel fm10k驱动程序。

增加了对RTE_ETH_DEV_CLOSE_REMOVE标志的支持。

•更新了Intel ice驱动程序。

更新了Intel ice驱动程序,增加了新功能和改进,包括:

o 添加了对特定于设备的DDP程序包加载的支持。

o 添加了对处理接收方向Flex描述符的支持。

o 增加了对每个Rx队列上的协议提取的支持。

o 添加了对基于通用过滤器框架的Flow Director过滤器的支持。

o 添加了对RTE_ETH_DEV_CLOSE_REMOVE标志的支持。

o 通用过滤器增强功能-支持的管道模式。-支持新的数据包类型,例如用于交换机过滤器的PPPoE。

o 支持通过rte_flow RSS操作更改输入集和对称哈希。

o 添加了对GTP Tx校验和卸载的支持。

o 添加了新的设备ID以支持E810_XXV设备。

更新了华为Hinic驱动程序。

华为hinic驱动程序更新功能并对原有功能做出改进,包括:

o 已启用SR-IOV-目前部分受支持,仅VFIO。

o 支持VLAN筛选和VLAN卸载。

o 支持单播MAC筛选器和组播MAC筛选器。

o 支持LACP,VRRP,BGP等流API。

o 支持FW版本获取。

更新了Mellanox mlx5驱动程序。

更新了Mellanox mlx5驱动程序,使之具有新的特性和改进,包括:

o 添加了对VLAN pop flow offload命令的支持。

o 添加了对VLAN push flow offload命令的支持。

o 添加了对VLAN set PCP offload命令的支持。

o 增加了对VLAN set VID offload命令的支持。

o 增加了对与具有Geneve隧道标头的数据包进行匹配的支持。

o 添加了hairpin支持。

o 添加了ConnectX6-DX支持。

o 基于RDMA核心库版本选择流引擎。如果版本为rdma-core-24.0或更高版本,则选择DV流引擎,否则选择verbs flow引擎。

· 更新了AF_XDP PMD。

更新了AF_XDP PMD。新功能包括:

o通过启用XDP_UMEM_UNALIGNED_CHUNKS UMEM标志,在应用程序内存池和UMEM之间启用了零拷贝。

·添加了cryptodev非对称无会话操作。

在cryptodev非对称结构中增加了一个无会话选项。它的工作方式与对称加密相同,相应的转换直接由加密操作使用。

· 添加了Marvell NITROX对称加密PMD。

为Marvell NITROX V安全处理器添加了对称加密PMD。有关此新PMD的更多详细信息,请参见Marvell NITROX加密轮询模式驱动程序指南。

· 为Marvell OCTEON TX加密PMD添加了非对称支持。

为Marvell OCTEON TX加密PMD添加了对非对称操作的支持。支持RSA和modexp操作。

· 添加了Marvell OCTEON TX2加密PMD。

在OCTEON TX2 SoC上为硬件加密卸载模块添加了新的PMD驱动程序。

更多详细信息,请参见Marvell OCTEON TX2加密轮询模式驱动程序

·更新了NXP加密PMD,以支持PDCP。

使用rte_security API向DPAA_SEC和DPAA2_SEC PMD添加了PDCP支持。添加了对控制和用户平面的所有序列号大小的支持。此外,测试和测试加密性能应用程序已更新,可以进行单元测试。

·更新了AESNI-MB PMD。

o 添加了对intel-ipsec-mb版本0.53的支持。

·更新了AESNI-GCM PMD。

o 添加了对intel-ipsec-mb版本0.53的支持。

o 增加了对使用AES-GCM算法的就地链式MBUF的支持。

· 在QAT GEN3上启用了单程GCM加速。

增加了对Single Pass GCM的支持,仅在QAT GEN3上可用(英特尔QuickAssist Technology C4xxx)。在QAT GEN3上运行时,将自动选择它而不是经典的2次通过模式,从而大大提高了AES GCM操作的性能。

·更新了英特尔QuickAssist Technology(QAT)非对称加密PMD。

o 增加了对非对称无会话操作的支持。

o 增加了对具有对(n,d)个私钥表示的RSA算法的支持。

o 添加了对具有五重私钥表示形式的RSA算法的支持。

·更新了英特尔QuickAssist Technology(QAT)压缩PMD。

在Intel QuickAssist Technology PMD中添加了状态解压缩支持。请注意,不支持有状态压缩。

·增加了对dpdk-test-compress-perf工具的外部缓冲区支持。

在dpdk-test-compress-perf工具中添加了命令行选项,以分配和使用内存区域作为外部缓冲区,而不是将数据直接保存在mbuf区域中。

· 更新了IPSec库。

o在librte_ipsec中添加了安全性关联(SA)数据库API。还引入了一个新的测试失败应用程序,用于评估和执行IPsec SAD实现的自定义功能和性能测试。

o支持在线加密处理模式下的分段数据包,并具有备用后备无会话。相应的更改也被添加到IPsec安全网关应用程序中。

·为NTB PMD引入了FIFO。

引入了用于NTB(Non-transparent Bridge)PMD的FIFO,以支持基于数据包的处理。

· 为arm64添加了eBPF JIT支持。

增加了对arm64体系结构的eBPF JIT支持,以提高eBPF程序性能。

·添加了RIB和FIB(路由/转发信息库)库。

添加了路由和转发信息库(RIB / FIB)库。RIB和FIB可以代替LPM(最长前缀匹配)库来获得更好的控制平面(RIB)性能。可以使用新算法扩展数据平面(FIB)。

· 添加testpmd添加了ptypes命令。

o 在testpmd应用程序中添加了一个控制台命令,show port(port_id)ptypes,从而可以显示端口对于不同协议层支持的ptypes。

o 默认情况下,对于支持的PMD禁用数据包类型检测。

· 添加了新的l2fwd-event示例应用程序。

添加了示例应用程序l2fwd-event,该示例为传统的l2fwd示例增加了事件设备支持,并演示了在单个应用程序下轮询和事件模式IO机制的用法。

· 添加了对链接时间优化的构建支持。

LTO是一种优化技术,编译器使用它在链接时执行整个程序的分析和优化。为此,编译器存储了链接器在编译过程最后阶段使用的源代码的内部表示形式。

有关更多信息,请参见链接时间优化:

· 添加了IOVA作为VA的KNI支持。

o 添加了IOVA = VA的KNI支持。当将iova-mode=va EAL选项传递给应用程序或将总线IOVA方案选择为RTE_IOVA_VA时,KNI可以在IOVA = VA模式下运行,此模式仅仅适用于Linux Kernel 4.10.0及更高版本。

o 由于IOVA到KVA地址的转换,基于KNI场景可能会对性能产生影响。为缓解这样的影响,通过EAL --iova-mode=pa选项强制IOVA到PA,IOVA_DC总线的iommu方案,也可能导致IOVA作为PA。

●1.2 删除的项目

Merry Christmas

· 删除了库级别的ABI版本。这些已被非实验性库的单个项目级ABI版本和实验性库的ABI版本0 取代。有关更多信息,请查看ABI策略和ABI版本控制指南。

· 从testpmd中删除了用于Rx卸载配置的重复命令集:

·port config all crc-strip|scatter|rx-cksum|rx-timestamp|

·hw-vlan|hw-vlan-filter|hw-vlan-strip|hw-vlan-extend on|off

可以用来代替启用或禁用端口的所有Rx队列上的Rx卸载的testpmd命令集是:

port config  rx_offload crc_strip|scatter|

                                 ipv4_cksum|udp_cksum|tcp_cksum|timestamp|

                                 vlan_strip|vlan_filter|vlan_extend on|off

·删除了AF_XDP pmd_zero copy vdev参数。现可自动检测功能支持。

· 在此版本中,删除了以下示例应用程序:

o   Exception Path

o   虚拟化环境中的L3转发

o   负载均衡器

o   Netmap兼容性

o   QuotaWatermark

o   vhost-scsi

· 删除的arm64-dpaa2-*构建config. arm64-dpaa-*现在可以同时为dpaa和dpaa2平台构建。

1.3. API更改 ●

Merry Christmas

· eal:将lcore_config 结构和全局符号设为私有。

·安全:删除了rte_cpu_check_supported函数,从dpdk v17.08开始由rte_cpu_is_supported 代替。

·eal:删除rte_malloc_virt2phy函数,从v17.11开始由rte_malloc_virt2iova代替。

·eal :将rte_config结构和rte_eal_get_configuration函数设为私有。

·mem:隐藏内部malloc_heap结构和rte_malloc_heap.h 标头。

· vfio:删除在版本19.05中已标记为已弃用的rte_vfio_dma_map和rte_vfio_dma_unmap。rte_vfio_container_dma_map和rte_vfio_container_dma_unmap可用作替代项。

· pci:删除了自dpdk v17.11以来不推荐使用的以下函数:

o由rte_pci_addr_parse替换eal_parse_pci_BDF

o由rte_pci_addr_parse替换eal_parse_pci_DomBDF

o由rte_pci_addr_cmp替换rte_eal_compare_pci_addr

· 网络结构esp_tail已以rte_作为前缀。

· PPPoE以太网类型的网络定义以RTE_为前缀。

· MPLS的网络结构以rte_为前缀。

· ethdev:将rte_eth_dev_infos_get的返回值从void更改为int,以提供一种报告各种错误情况的方法。

· ethdev:将rte_eth_promiscuous_enable和rte_eth_promiscuous_disable返回值从void更改为int,以提供一种报告各种错误情况的方法。

·ethdev:将rte_eth_allmulticast_enable和rte_eth_allmulticast_disable返回值从void更改为int,以提供一种报告各种错误情况的方法。

·ethdev:将rte_eth_dev_xstats_reset返回值从void更改为int,以提供一种报告各种错误情况的方法。

·ethdev:将rte_eth_link_get和rte_eth_link_get_nowait返回值从void更改为int,以提供一种报告各种错误情况的方法。

· ethdev:将rte_eth_macaddr_get的返回值从void更改为int,以提供一种报告各种错误情况的方法。

·ethdev:将rte_eth_dev_owner_delete返回值从void更改为int,以提供一种报告各种错误情况的方法。

·ethdev:不推荐使用的函数rte_eth_dev_count被删除了,函数rte_eth_dev_count_avail是一个替代品,如果要在端口上进行迭代,那么RTE_ETH_FOREACH_*宏是更好的端口迭代器。

·ethdev:RTE_FLOW_ITEM_TYPE_META数据字节序已更改为主机字节序。由于mbuf中的新动态元数据字段也是主机字节序的,因此在支持32位值的情况下,应用程序存在较小的兼容性问题。

·ethdev:将tx_metadata mbuf字段移动到动态1. PKT_TX_METADATA标志替换为PKT_TX_DYNF_METADATA。DEV_TX_OFFLOAD_MATCH_METADATA卸载标志已删除,现在PMD中的元数据支持已用于动态字段注册。

·事件:函数rte_event_eth_tx_adapter_enqueue将附加输入作为flags。当在Tx适配器中排队的所有数据包都发往同一以太网端口和Tx队列时,将使用此版本中引入的标志RTE_EVENT_ETH_TX_ADAPTER_ENQUEUE_SAME_DEST。

·sched:将管道节点的配置参数(例如管道数量,管道队列大小,管道配置文件等)从端口级别结构移动到子端口级别。这允许同一端口的不同子端口对管道节点进行不同的配置。

1.4. ABI变化 ●

Merry Christmas

·政策:请注意,ABI政策的修订引入了主要的ABI版本,其中DPDK 19.11成为第一个主要版本v20。后续版本中仍允许对ABI进行更改以添加新功能,条件是维持ABI主要版本的兼容性。

· net:以太网地址和其他标头定义已更改属性,已对其进行了修改以在2字节边界上对齐,这些更改不应影响正常使用,因为驱动程序自然会在接收时对齐以太网包头,并且所有已知封装都保留了包头对齐。

· 安全性:字段replay_win_sz已从基于ipsec库的rte_ipsec_sa_prm结构移动到基于安全库的结构rte_security_ipsec_xform,该结构指定防重放窗口的大小以启用序列重放攻击处理。

· ipsec:字段replay_win_sz已从结构rte_ipsec_sa_prm中删除,因为已将其添加到安全性库中。

·  ethdev:增加了32位字段以获取最大的LRO聚合数据包大小,在rte_eth_dev_info结构中提供了端口功能信息,并在rte_eth_rxmode结构中提供了端口配置。应用程序应该在rte_eth_rxmode结构中使用新字段来配置请求的大小,PMD应该在rte_eth_dev_info结构中使用新字段以报告支持的端口功能。

1.5.共享库版本 ●

Merry Christmas

带有加号的库在此版本中递增。

  librte_acl.so.2

  librte_bbdev.so.1

  librte_bitratestats.so.2

  librte_bpf.so.1

  librte_bus_dpaa.so.2

  librte_bus_fslmc.so.2

  librte_bus_ifpga.so.2

  librte_bus_pci.so.2

  librte_bus_vdev.so.2

  librte_bus_vmbus.so.2

  librte_cfgfile.so.2

  librte_cmdline.so.2

  librte_compressdev.so.1

  librte_cryptodev.so.8

  librte_distributor.so.1

+ librte_eal.so.12

  librte_efd.so.1

+ librte_ethdev.so.13

+ librte_eventdev.so.8

+ librte_fib.so.1

  librte_flow_classify.so.1

  librte_gro.so.1

  librte_gso.so.1

  librte_hash.so.2

  librte_ip_frag.so.1

+ librte_ipsec.so.2

  librte_jobstats.so.1

  librte_kni.so.2

  librte_kvargs.so.1

  librte_latencystats.so.1

  librte_lpm.so.2

  librte_mbuf.so.5

  librte_member.so.1

  librte_mempool.so.5

  librte_meter.so.3

  librte_metrics.so.1

  librte_net.so.1

+ librte_pci.so.2

  librte_pdump.so.3

  librte_pipeline.so.3

  librte_pmd_bnxt.so.2

  librte_pmd_bond.so.2

  librte_pmd_i40e.so.2

  librte_pmd_ixgbe.so.2

  librte_pmd_dpaa2_qdma.so.1

  librte_pmd_ring.so.2

  librte_pmd_softnic.so.1

  librte_pmd_vhost.so.2

  librte_port.so.3

  librte_power.so.1

  librte_rawdev.so.1

+ librte_rib.so.1

  librte_rcu.so.1

  librte_reorder.so.1

  librte_ring.so.2

+ librte_sched.so.4

+ librte_security.so.3

  librte_stack.so.1

  librte_table.so.3

  librte_timer.so.1

  librte_vhost.so.4

● 1.6经过测试的平台 ●

Merry Christmas

·Intel® platforms with Intel® NICs combinations

o   CPU

· Intel® Atom™ CPU C3758 @ 2.20GHz

·Intel® Atom™ CPU C3858 @ 2.00GHz

·Intel® Atom™ CPU C3958 @ 2.00GHz

·Intel® Xeon® CPU D-1541 @ 2.10GHz

·Intel® Xeon® CPU D-1553N @ 2.30GHz

·Intel® Xeon® CPU E5-2680 0 @ 2.70GHz

·Intel® Xeon® CPU E5-2680 v2 @ 2.80GHz

·Intel® Xeon® CPU E5-2699 v3 @ 2.30GHz

·Intel® Xeon® CPU E5-2699 v4 @ 2.20GHz

·Intel® Xeon® Gold 6139 CPU @ 2.30GHz

·Intel® Xeon® Gold 6252N CPU @ 2.30GHz

·Intel® Xeon® Platinum 8180 CPU @ 2.50GHz

·Intel® Xeon® Platinum 8280M CPU @ 2.70GHz

·OS:

·CentOS 7.6

·Fedora 30

·FreeBSD 12.0

·Red Hat Enterprise Linux Server release 8.0

·Red Hat Enterprise Linux Server release 7.6

·Suse12SP3

·Ubuntu 14.04

·Ubuntu 16.04

·Ubuntu 16.10

·Ubuntu 18.04

·Ubuntu 19.04

·NICs:

·Intel® Corporation Ethernet Controller E810-C for SFP (2x25G)

·Firmware version: 1.02 0x80002084 1.2538.0/1.020x80002082 1.2538.0

· Device id (pf): 8086:1593

·Driver version: 0.12.25 (ice)

·Intel® Corporation Ethernet Controller E810-C for SFP (2x100G)

·Firmware version: 1.02 0x80002081 1.2538.0

· Device id (pf): 8086:1592

· Driver version: 0.12.25 (ice)

·Intel® 82599ES 10 Gigabit Ethernet Controller

· Firmware version: 0x61bf0001

·Device id (pf/vf): 8086:10fb / 8086:10ed

·Driver version: 5.6.1 (ixgbe)

·Intel® Corporation Ethernet Connection X552/X557-AT 10GBASE-T

· Firmware version: 0x800003e7

·Device id (pf/vf): 8086:15ad / 8086:15a8

· Driver version: 5.1.0(ixgbe)

·Intel® Corporation Ethernet Controller 10G X550T

· Firmware version: 0x80000482

· Device id (pf): 8086:1563

· Driver version: 5.6.1 (ixgbe)

·Intel® Ethernet Converged Network Adapter X710-DA4 (4x10G)

· Firmware version: 7.00 0x80004cdb

·Device id (pf/vf): 8086:1572 / 8086:154c

· Driver version: 2.9.21 (i40e)

· Intel® Corporation Ethernet Connection X722 for 10GbE SFP+ (4x10G)

· Firmware version: 4.10 0x80001a3c

·Device id (pf/vf): 8086:37d0 / 8086:37cd

· Driver version: 2.9.21 (i40e)

·Intel® Ethernet Converged Network Adapter XXV710-DA2 (2x25G)

· Firmware version: 7.00 0x80004cf8

·Device id (pf/vf): 8086:158b / 8086:154c

· Driver version: 2.9.21 (i40e)

·Intel® Ethernet Converged Network Adapter XL710-QDA2 (2X40G)

· Firmware version: 7.00 0x80004c97

·Device id (pf/vf): 8086:1583 / 8086:154c

· Driver version: 2.9.21 (i40e)

·Intel® Corporation I350 Gigabit Network Connection

· Firmware version: 1.63, 0x80000cbc

·Device id (pf/vf): 8086:1521 / 8086:1520

· Driver version: 5.4.0-k(igb)

· Intel® Corporation I210 Gigabit Network Connection

· Firmware version: 3.25, 0x800006eb

· Device id (pf): 8086:1533

· Driver version: 5.4.0-k(igb)

·ARMv8 SoC combinations from Marvell (with integrated NICs)

o SoC:

· CN83xx, CN96xx, CN93xx

o OS (Based on Marvell OCTEON TX SDK-10.1.2.0):

· Arch Linux

· Buildroot 2018.11

· Ubuntu 16.04.1 LTS

· Ubuntu 16.10

· Ubuntu 18.04.1

· Ubuntu 19.04

·Intel® platforms with Mellanox® NICs combinations

o CPU:

· Intel® Xeon® Gold 6154 CPU @ 3.00GHz

·Intel® Xeon® CPU E5-2697A v4 @ 2.60GHz

·Intel® Xeon® CPU E5-2697 v3 @ 2.60GHz

·Intel® Xeon® CPU E5-2680 v2 @ 2.80GHz

·Intel® Xeon® CPU E5-2650 v4 @ 2.20GHz

· Intel® Xeon® CPU E5-2640 @ 2.50GHz

·Intel® Xeon® CPU E5-2620 v4 @ 2.10GHz

o OS:

·Red Hat Enterprise Linux Server release 8.0 (Maipo)

·Red Hat Enterprise Linux Server release 7.7 (Maipo)

·Red Hat Enterprise Linux Server release 7.6 (Maipo)

·Red Hat Enterprise Linux Server release 7.5 (Maipo)

·Red Hat Enterprise Linux Server release 7.4 (Maipo)

·Red Hat Enterprise Linux Server release 7.3 (Maipo)

· Red Hat Enterprise Linux Server release 7.2 (Maipo)

·Ubuntu 19.04

·Ubuntu 18.10

·Ubuntu 18.04

·Ubuntu 16.04

·SUSE Linux Enterprise Server 15

o  OFED:

· MLNX_OFED 4.6-1.0.1.1

·MLNX_OFED 4.7-1.0.0.1

·MLNX_OFED 4.7-3.1.9.0 and above

· upstream kernel:

· Linux 5.3 and above

· rdma-core:

· rdma-core-24.1-1and above

·NICs:

·Mellanox® ConnectX®-3 Pro 40G MCX354A-FCC_Ax (2x40G)

· Host interface: PCI Express 3.0 x8

· Device ID: 15b3:1007

· Firmware version: 2.42.5000

·Mellanox® ConnectX®-4 10G MCX4111A-XCAT (1x10G)

·Host interface: PCI Express 3.0 x8

·Device ID: 15b3:1013

· Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 10G MCX4121A-XCAT (2x10G)

· Host interface: PCI Express 3.0 x8

· Device ID: 15b3:1013

·Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 25G MCX4111A-ACAT (1x25G)

·Host interface: PCI Express 3.0 x8

· Device ID: 15b3:1013

· Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 25G MCX4121A-ACAT (2x25G)

·Host interface: PCI Express 3.0 x8

· Device ID: 15b3:1013

· Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 40G MCX4131A-BCAT/MCX413A-BCAT (1x40G)

· Host interface: PCI Express 3.0 x8

· Device ID: 15b3:1013

· Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 40G MCX415A-BCAT (1x40G)

·Host interface: PCI Express 3.0 x16

·Device ID: 15b3:1013

·Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 50G MCX4131A-GCAT/MCX413A-GCAT (1x50G)

·Host interface: PCI Express 3.0 x8

·Device ID: 15b3:1013

·Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 50G MCX414A-BCAT (2x50G)

·Host interface: PCI Express 3.0 x8

·Device ID: 15b3:1013

·Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 50G MCX415A-GCAT/MCX416A-BCAT/MCX416A-GCAT (2x50G)

· Host interface: PCI Express 3.0 x16

·Device ID: 15b3:1013

· Firmware version: 12.26.2032and above

·Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 50G MCX415A-CCAT (1x100G)

· Host interface: PCI Express 3.0 x16

· Device ID: 15b3:1013

· Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 100G MCX416A-CCAT (2x100G)

· Host interface: PCI Express 3.0 x16

· Device ID: 15b3:1013

·Firmware version: 12.26.2032and above

·Mellanox® ConnectX®-4 Lx 10G MCX4121A-XCAT (2x10G)

·Host interface: PCI Express 3.0 x8

· Device ID: 15b3:1015

·Firmware version: 14.26.2032 and above

·Mellanox® ConnectX®-4 Lx 25G MCX4121A-ACAT (2x25G)

·Host interface: PCI Express 3.0 x8

·Device ID: 15b3:1015

·Firmware version: 14.26.2032 and above

·Mellanox® ConnectX®-5 100G MCX556A-ECAT (2x100G)

·Host interface: PCI Express 3.0 x16

·Device ID: 15b3:1017

·Firmware version: 16.26.2032and above

· Mellanox® ConnectX®-5 Ex EN 100G MCX516A-CDAT (2x100G)

·Host interface: PCI Express 4.0 x16

·Device ID: 15b3:1019

·Firmware version: 16.26.2032and above

·IBM Power 9 platforms with Mellanox® NICs combinations

o   CPU:

· POWER9 2.2 (pvr 004e 1202) 2300MHz

o   OS:

· Ubuntu 18.04.1 LTS (Bionic Beaver)

o   NICs:

·Mellanox® ConnectX®-5 100G MCX556A-ECAT (2x100G)

· Host interface: PCI Express 3.0 x16

· Device ID: 15b3:1017

·Firmware version: 16.26.1040

o   OFED:

MLNX_OFED 4.7-1.0.0.2

● 扫码关注我们

微信号 : dpdkchina

进群交流更多技术知识

Merry Christmas

转载须知 

DPDK与SPDK开源社区公众号文章转载声明

 推荐阅读  

DPDK内存篇(三):17.11及早期版本

Intel® 2019网络技术研讨会系列一|Introduction of CascadeLake

Intel® 2019网络技术研讨会系列二| Intel®CVL E810 NIC产品和功能

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值