Linux内核NAPI原理机制、网卡收包过程

网卡收包流程:

1、网卡将数据包拷贝到主存(一般不需要cpu介入),触发硬中断
2、硬中断函数为驱动probe函数注册的中断回调函数,非napi时一般为netif_rx,napi时一般为驱动自己实现的函数,函数内部触发软中断。napi和非napi触发的软中断都会net_rx_action。
3、backlog_process为默认的poll函数(使用默认poll函数时,硬中断函数中一般调用netif_rx),部分驱动会定义自己的poll函数,此时不会使用默认的(也不调用netif_rx)。
4、RPS与RSS类似,用于将数据包定向到特定的CPU进行处理。RPS是在软件级别实现的,有助于避免单队列网卡成为网络流量的瓶颈。
5、支持napi的一般驱动实现自己的硬中断回调接口和poll接口(poll接口在net_rx_action中调用);
6、napi和非napi一次都会处理多个报文,但非napi时会触发多次硬中断,硬中断会打断软中断流程,对性能有影响。napi时在硬中断回调函数中会关闭rx中断,然后调用net_rx_action,
在poll函数处理完所有需要处理的报文后会根据情况打开rx硬中断。以达到减少硬中断次数。(这里只是禁用了rx中断,其他硬中断还是打开的)
7、(net_rx_action中会对单次处理的时间和报文数做处理,防止软中断单次执行时间过长)
8、napi的skb在poll函数中构造,poll函数直接读取ring缓冲区,构造skb,再调用netif_recv_skb处理。
9、也有部分网卡驱动使用非napi方式,但实现效果与napi方式类似。逻辑一样,都是减少硬中断次数
10、struct napi_struct 对应一个设备napi.,多个网卡有多个napi_struct。另外操作softnet_data变量时是禁用了本地所有中断的
11、最终都是调用netif_receive_skb进入协议栈。
12、desc 、rx_buffer 、skb;网卡收包流程中其中skb和rx_buffer每次会申请释放内存。给网卡回填desc时申请rx_buffer。 skb在rx_poll读取desc数据时申请。然后skb->data执向rx_buffer数据部分。(当然为了效率skb\rx_buffer一般使用单独的slub_node节点。也可以自己实现内存池来提高性能)

详细可参考:

Linux内核源码分析–详谈NAPI原理机制
openstack ovs-vswitch收包流程

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值