1: linux网络收包
(1) TCP/IP网络的分成模型:
自底向上: 物理层(网卡、网线)-> 链路层(网卡驱动)-> 网络层(IP,ICMP )->传输层(TCP,UDP)->应用层(HTTP,FTP)
其中:网络层和传输层属于linux 内核网络协议栈,链路层也是属于linux内核的驱动程序模块,他们都属于内核态。应用层在用户进程中,属于用户态。
(2) linux 内核收包路径:
[1]: 外部数据通过网线、路由器、网关等到达本地linux机器的网卡设备上。
[2]: 网卡把数据DMA(Direct Memory Access)写到内存里,内存的RingBuffer中。RingBuffer大小查看: ethtool -g 网卡名。当RingBuffer满,后面来的数据包就会被丢弃
[3]: 同时,网卡向CPU发出一个硬中断(触发一个电压变化),通知CPU处理数据。
[4]: CPU收到中断请求后,调用驱动注册的中断处理函数。该中断处理函数,发出软中断请求后,释放CPU资源,等待其他中断。
[5]: Linux内核的ksoftirqd内核线程检测到软中断请求到达,调用驱动注册的poll函数开始轮询收包。驱动的igb_pool函数把数据从RingBuffer中取出。送到协议栈注册的ip_rcv函数中。
linux的软中断都是在专门的内核线程(ksoftirqd)中进行,该线程每个CPU核有一个,该线程是loop模式。使用命令cat /proc/softirqs查看每个CPU的软中断相关。
[6]: linux内核的网络协议栈根据包的协议进行处理(TCP/UDP)
[7]: 协议层开始处理网络数据帧,处理完的数据dat被放到用户进程socket的接收队列中。
[8]: 用户进程(recv)被唤醒收包。
(3) 网卡的多队列模式:
现在网卡都支持多队列模式,ethtool -l 网卡名可以查看当前网卡支持的最大队列数。如果想增大当前网卡的队列数,ethtool -L 网卡名 combined 新的网卡队列数。
硬中断在哪个COU上被响应,那么软中断也在哪个CPU上处理。要通过调整硬中断的CPU亲和性,将硬中断分配到指定的CPU上。
2: linux内核和用户进程协作