DPDK 网卡驱动总结

RTE_PMD_REGISTER_PCI(net_ixgbe, rte_ixgbe_pmd)
    调构造函数,在mian函数之前将rte_ixgbe_pmd驱动注册到rte_pci_bus.driver_list上,driver名为net_ixgbe; --》该链表在ret_bus_probe时触发
RTE_PMD_REGISTER_PCI_TABLE(net_ixgbe, pci_id_ixgbe_map); 
    向PMD注册net_ixgbe驱动名上的网卡设备的id相关信息;
RTE_PMD_REGISTER_KMOD_DEP(net_ixgbe, "* igb_uio | uio_pci_generic | vfio-pci");
    将net_ixgbe驱动名的驱动通过igb_uio绑定到PMD上;

rte_ixgbe_pmd:
    static struct rte_pci_driver rte_ixgbe_pmd = {
        .id_table = pci_id_ixgbe_map,      ---》设置driver下的设备id信息
        .drv_flags = RTE_PCI_DRV_NEED_MAPPING | RTE_PCI_DRV_INTR_LSC |
                 RTE_PCI_DRV_IOVA_AS_VA,   ---》设置driver的flag;
        .probe = eth_ixgbe_pci_probe,
        .remove = eth_ixgbe_pci_remove,
    };

eth_ixgbe_pci_probe:
    1、rte_eth_devargs_parse:若设备被传入参数,对参数字符串进行解析;
        rte_eth_devargs_tokenise:解析出每个参数的key、value;
        对每个参数列表,进行判断是不是representor的配置,若时候的话,获取representor的端口号
    2、rte_eth_dev_create:
        2.1.a、若为master CPU
            2.1.a.1、rte_eth_dev_allocate:
                rte_eth_dev_shared_data_prepare:获取网卡在主从CPU进行共享的内存rte_eth_dev_shared_data;
                rte_eth_dev_find_free_port:若rte_eth_dev_shared_data->data[i].name[0]为0,说明该空间未被分配给网卡,返回i作为port;
                eth_dev_get(port_id):根据port_id获取网卡设备的设备结构体eth_dev,执行struct rte_eth_dev *eth_dev = &rte_eth_devices[port_id]、eth_dev->data = &rte_eth_dev_shared_data->data[port_id]将
                网卡设备的data空间指向预申请的缓冲区,eth_dev指向全局的rte_eth_devices数组,返回eth_dev结构体继续对其进行初始化;
                对eth_dev进行以下赋值:
                    strlcpy(eth_dev->data->name, name, sizeof(eth_dev->data->name));
                    eth_dev->data->port_id = port_id;
                    eth_dev->data->mtu = RTE_ETHER_MTU;
                返回eth_dev结构体;
            2.1.a.2、若网卡设备有私有空间配置,从网卡设备绑定的cpu核申请私有空间;
        2.1.b、若为slave cpu:
            rte_eth_dev_attach_secondary:
                strcmp(rte_eth_dev_shared_data->data[i].name, name)根据设备名,从共享空间获取设备的port,根据port获取eth_dev并返回;
        2.2、获取device结构体成员eth_dev->device = &dev->device;
        2.3、执行传入的ethdev_bus_specific_init回调:
             rte_eth_copy_pci_info:从rte_pci_device(dpdk初始化时创建的)获取设备的中断处理回调函数、驱动的flag、io类型(UIO or VRIO)、绑定的核给eth_dev;
        2.4、执行传入的ethdev_init回调:    
            对eth_dev收发包成员函数进行赋值;
            获取网卡的mac地址等硬件信息;
            注册网卡中断函数(检查网卡寄存器,根据寄存器状态执行相应的动作)、使能网卡中断;
            初始化网卡过滤数据包的队列的链表;    
        2.5、rte_eth_dev_probing_finish:
             执行_rte_eth_dev_callback_process:遍历eht_dev->link_intr_cbs链表,查找到RTE_ETH_EVENT_NEW事件类型的中断函数后进行执行;
             设置eth_dev->state = RTE_ETH_DEV_ATTACHED;        
    3、若设备没配置representor,则退出;
    4、进行representor的ent_dev创建:将主卡的物理信息、状态信息复制到representor

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
DPDKData Plane Development Kit)是一个开源的软件开发工具包,用于加速数据平面应用程序的性能。它提供了一组优化的库和驱动程序,可以直接操作网络接口卡(NIC),绕过操作系统内核,实现高性能的数据包处理。 在传统的网络数据包处理中,数据包需要经过操作系统内核的网络协议栈进行处理,这会引入较大的延迟和性能损耗。而使用DPDK,应用程序可以直接访问和操作网络接口卡,绕过内核,从而实现更低的延迟和更高的吞吐量。 DPDK网卡驱动性能提升的主要原因有以下几点: 1. 零拷贝技术:DPDK使用了零拷贝技术,即数据包在内存中的传递过程中避免了不必要的数据拷贝操作。传统的网络数据包处理需要多次数据拷贝,而DPDK通过使用大页内存和直接内存访问(DMA)技术,实现了数据包在内存中的直接传递,减少了数据拷贝带来的性能损耗。 2. 多队列技术:DPDK支持多队列技术,即将网络流量分发到多个队列中进行处理。每个队列都可以由独立的处理核心进行处理,从而实现并行处理,提高了系统的吞吐量和并发性能。 3. 用户态驱动程序:DPDK的驱动程序运行在用户态,而不是内核态。这样可以避免用户态和内核态之间的上下文切换,减少了系统调用的开销,提高了数据包处理的性能。 4. 轮询模式:DPDK使用轮询模式来处理数据包,而不是中断模式。传统的网络数据包处理需要通过中断来通知应用程序有新的数据包到达,而DPDK通过轮询方式主动检查网络接口卡上是否有新的数据包到达,减少了中断处理的开销,提高了系统的响应速度和吞吐量。 5. 内存管理:DPDK使用了自己的内存管理机制,通过预先分配大页内存和使用内存池技术,减少了内存分配和释放的开销,提高了系统的性能和稳定性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

picaso77

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值