dpdk配置 万兆网卡 驱动 失败的 原因分析及 解决办法

3 篇文章 0 订阅

dpdk的版本是1.7.1的稳定版,服务器是ubuntu12.04LTS x86 64bit

绑定万兆网卡的默认驱动ixgbe失败

# ./dpdk_nic_bind.py -b ixgbe 06:00.1
Error: bind failed for 0000:06:00.1 - Cannot bind to driver ixgbe

查看原因 dmesg |tail

# dmesg |tail
[ 5667.433649] ixgbe 0000:06:00.1: failed to load because an unsupported SFP+ module type was detected.
[ 5667.433953] ixgbe 0000:06:00.1: Reload the driver after installing a supported module.
[ 5667.434282] ixgbe 0000:06:00.1: PCI INT B disabled

发现原因是光模块不支持

解决办法是换两块intel的光模块


参考文章:万兆网卡启动失败问题  http://www.linux80.com/a/Linuxxitong/2014/0527/43.html


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
DPDK(Data Plane Development Kit)是一个开源的软件开发工具包,用于加速数据平面应用程序的性能。它提供了一组优化的库和驱动程序,可以直接操作网络接口卡(NIC),绕过操作系统内核,实现高性能的数据包处理。 在传统的网络数据包处理中,数据包需要经过操作系统内核的网络协议栈进行处理,这会引入较大的延迟和性能损耗。而使用DPDK,应用程序可以直接访问和操作网络接口卡,绕过内核,从而实现更低的延迟和更高的吞吐量。 DPDK网卡驱动性能提升的主要原因有以下几点: 1. 零拷贝技术:DPDK使用了零拷贝技术,即数据包在内存中的传递过程中避免了不必要的数据拷贝操作。传统的网络数据包处理需要多次数据拷贝,而DPDK通过使用大页内存和直接内存访问(DMA)技术,实现了数据包在内存中的直接传递,减少了数据拷贝带来的性能损耗。 2. 多队列技术:DPDK支持多队列技术,即将网络流量分发到多个队列中进行处理。每个队列都可以由独立的处理核心进行处理,从而实现并行处理,提高了系统的吞吐量和并发性能。 3. 用户态驱动程序:DPDK驱动程序运行在用户态,而不是内核态。这样可以避免用户态和内核态之间的上下文切换,减少了系统调用的开销,提高了数据包处理的性能。 4. 轮询模式:DPDK使用轮询模式来处理数据包,而不是中断模式。传统的网络数据包处理需要通过中断来通知应用程序有新的数据包到达,而DPDK通过轮询方式主动检查网络接口卡上是否有新的数据包到达,减少了中断处理的开销,提高了系统的响应速度和吞吐量。 5. 内存管理:DPDK使用了自己的内存管理机制,通过预先分配大页内存和使用内存池技术,减少了内存分配和释放的开销,提高了系统的性能和稳定性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值