Linux网络驱动实验

直接参考【正点原子】I.MX6U嵌入式Linux驱动开发指南V1.81

本文仅作为个人笔记使用,方便进一步记录自己的实践总结。

网络驱动是 linux 里面驱动三巨头之一,linux 下的网络功能非常强大,嵌入式 linux 中也常常用到网络功能。前面我们已经讲过了字符设备驱动和块设备驱动,本章我们就来学习一下linux 里面的网络设备驱动。

嵌入式下的网络硬件接口

本章节讨论的都是有线网络!

注意!正点原子I.MX6U-ALPHA开发板V2.4版本以前的底板使用的网络PHY为LAN8720,V2.4 及其以后的版本使用的网络 PHY 为 SR8201F,而且网络 PHY 地址有改变,大家一定要看准自己所使用的底板版本号!原理基本一致,本章就以 LAN8720 为例进行讲解。

提起网络,我们一般想到的硬件就是“网卡”,“网卡”这个概念最早从电脑领域传出来,顾名思义就是能上网的卡。在电脑领域的“原始社会”,网卡是独立的硬件,如果电脑要上网就得买个网卡插上去,类似现在的显卡一样。但是大家现在观察自己的笔记本或者台式机主板会发现并没有类似显卡一样的网卡设备,原因是随着技术的不断发展,现在只需要一个芯片就可以实现有线网卡功能,因此网卡芯片都直接放到了主板上。所以大家在接触嵌入式的时候听到“网卡”这两个字,不要急着在开发板上找“卡”一样的东西。

既然现在网卡已经是通过一个芯片来完成了,那么是什么样的芯片呢?这个就要先了解一下嵌入式中的网络硬件方案。首先,嵌入式网络硬件分为两部分:MAC 和 PHY,大家都是通过看数据手册来判断一款 SOC 是否支持网络,如果一款芯片数据手册说自己支持网络,一般都是说的这款 SOC 内置 MAC,MAC 类似 I2C 控制器、SPI 控制器一样的外设。但是光有 MAC还不能直接驱动网络,还需要另外一个芯片:PHY,因此对于内置 MAC 的 SOC,其外部必须搭配一个 PHY 芯片。但是有些 SOC 内部没有 MAC,那也就没法搭配 PHY 芯片了,这些内部没有网络 MAC 的芯片如何上网呢?这里就要牵扯出常见的两个嵌入式网络硬件方案了。

1、SOC 内部没有网络 MAC 外设

我们一般说某个 SOC 不支持网络,说的就是它没有网络 MAC。那么这个芯片就不能上网了吗?显然不是的,既然没有内部 MAC,那么可以找个外置的 MAC 芯片啊,不过一般这种外置的网络芯片都是 MAC+PHY 一体的。比如三星 linux 开发板里面用的最多的 DM9000,因为三星的芯片基本没有内部 MAC(比如 S3C2440、S5PV210,4412 等),所以三星的开发板都是通过外置的 DM9000 来完成有线网络功能的,DM9000 对 SOC 提供了一个 SRAM 接口,SOC 会以 SRAM 的方式操作 DM9000。

有些外置的网络芯片更强大,内部甚至集成了硬件 TCP/IP 协议栈,对外提供一个 SPI 接口,比如 W5500。这个一般用于单片机领域,单片机通过 SPI 接口与 W5500 进行通信,由于W5500 内置了硬件 TCP/IP 协议栈,因此单片机就不需要移植软件协议栈,直接通过 SPI 来操作 W5500,简化了单片机联网方案。

这种方案的优点就是让不支持网络的 SOC 能够另辟蹊径,实现网络功能,但是缺点就是网络效率不高,因为一般芯片内置的 MAC 会有网络加速引擎,比如网络专用 DMA,网络处理效率会很高。而且此类芯片网速都不快,基本就是 10/100M。另外,相比 PHY 芯片而言,此类芯片的成本也比较高,可选择比较少。

SOC 与外部 MAC+PHY 芯片的连接如图 69.1.1.1 所示:

2、SOC 内部集成网络 MAC 外设

我们一般说某个 SOC 支持网络,说的就是他内部集成网络 MAC 外设,此时我们还需要外接一个网络 PHY 芯片。此时就有朋友会有疑问,PHY 芯片不能也集成进 SOC 吗?笔者目前还没见过将 PHY 也集成到芯片里面的 SOC。一般常见的通用 SOC 都会集成网络 MAC 外设,比如 STM32F4/F7/H7 系列、NXP 的 I.MX系列,内部集成网络 MAC 的优点如下:

①、内部 MAC 外设会有专用的加速模块,比如专用的 DMA,加速网速数据的处理。

②、网速快,可以支持 10/100/1000M 网速。

③、外接 PHY 可选择性多,成本低。

内部的 MAC 外设会通过 MII 或者 RMII 接口来连接外部的 PHY 芯片,MII/RMII 接口用来传输网络数据。另外主控需要配置或读取 PHY 芯片,也就是读写 PHY 的内部寄存器,所以还需要一个控制接口,叫做 MIDO,MDIO 很类似 IIC,也是两根线,一根数据线叫做 MDIO,一根时钟线叫做 MDC。

SOC 内部 MAC 外设与外部 PHY 芯片的连接如图 69.1.1.2 所示:

大家在做项目的时候,如果要用到网络功能,强烈建议大家选择内部带有网络 MAC 外设的主控 SOC!I.MX6ULL 就有两个 10M/100M 的网络 MAC 外设,正点原子 ALPHA 开发板板载了两颗 PHY 芯片,型号为 LAN8720 或 SR8201F。因此,本章节只讲解 SOC 内部 MAC+外置 PHY 芯片这种方案。

MII/RMII 接口

前面我们说了,内部 MAC 通过 MII/RMII 接口来与外部的 PHY 芯片连接,完成网络数据传输,本节我们就来学习一下什么是 MII 和 RMII 接口。

1、MII 接口

MII 全称是 Media Independent Interface,直译过来就是介质独立接口,它是 IEEE-802.3 定义的以太网标准接口,MII 接口用于以太网 MAC 连接 PHY 芯片,连接示意图如图 69.1.2.1 所示:

MII 接口一共有 16 根信号线,含义如下:

TX_CLK:发送时钟,如果网速为 100M 的话时钟频率为 25MHz,10M 网速的话时钟频率为 2.5MHz,此时钟由 PHY 产生并发送给 MAC。

TX_EN:发送使能信号。

TX_ER:发送错误信号,高电平有效,表示 TX_ER 有效期内传输的数据无效。10Mpbs 网速下 TX_ER 不起作用。

TXD[3:0]:发送数据信号线,一共 4 根。

RXD[3:0]:接收数据信号线,一共 4 根。

RX_CLK:接收时钟信号,如果网速为 100M 的话时钟频率为 25MHz,10M 网速的话时钟频率为 2.5MHz,RX_CLK 也是由 PHY 产生的。

RX_ER:接收错误信号,高电平有效,表示 RX_ER 有效期内传输的数据无效。10Mpbs 网速下 RX_ER 不起作用。

RX_DV:接收数据有效,作用类似 TX_EN。

CRS:载波侦听信号。

COL:冲突检测信号。

MII 接口的缺点就是所需信号线太多,这还没有算 MDIO 和 MDC 这两根管理接口的数据线,因此 MII 接口使用已经越来越少了。

2、RMII 接口

RMII 全称是 Reduced Media Independent Interface,翻译过来就是精简的介质独立接口,也就是 MII 接口的精简版本。RMII 接口只需要 7 根数据线,相比 MII 直接减少了 9 根,极大的方便了板子布线,RMII 接口连接 PHY 芯片的示意图如图 69.1.2.2 所示:

TX_EN:发送使能信号。

TXD[1:0]:发送数据信号线,一共 2 根。

RXD[1:0]:接收数据信号线,一共 2 根。

CRS_DV:相当于 MII 接口中的 RX_DV 和 CRS 这两个信号的混合。

REF_CLK:参考时钟,由外部时钟源提供, 频率为 50MHz。这里与 MII 不同,MII 的接收和发送时钟是独立分开的,而且都是由 PHY 芯片提供的。

除了 MII 和 RMII 以外,还有其他接口,比如 GMII、RGMII、SMII、SMII 等,关于其他接口基本都是大同小异的,这里就不做讲解了。正点原子 ALPAH 开发板上的两个网口都是采用 RMII 接口来连接 MAC 与外部 PHY 芯片。

MDIO 接口

MDIO 全称是 Management Data Input/Output,直译过来就是管理数据输入输出接口,是一个简单的两线串行接口,一根 MDIO 数据线,一根 MDC 时钟线。驱动程序可以通过 MDIO 和MDC 这两根线访问 PHY 芯片的任意一个寄存器。MDIO 接口支持多达 32 个 PHY。同一时刻内只能对一个 PHY 进行操作,那么如何区分这 32 个 PHY 芯片呢?和 IIC 一样,使用器件地址即可。同一 MDIO 接口下的所有 PHY 芯片,其器件地址不能冲突,必须保证唯一,具体器件地址值要查阅相应的 PHY 数据手册。

因此,MAC 和外部 PHY 芯片进行连接的时候主要是 MII/RMII 和 MDIO 接口,另外可能还需要复位、中断等其他引脚。

RJ45 接口

网络设备是通过网线连接起来的,插入网线的叫做 RJ45 座,如图 69.1.4.1 所示:

RJ45 座要与 PHY 芯片连接在一起,但是中间需要一个网络变压器,网络变压器用于隔离以及滤波等,网络变压器也是一个芯片,外形一般如图 69.1.4.2 所示:

但是现在很多 RJ45 座子内部已经集成了网络变压器,比如正点原子 ALPHA 开发板所使用的 HR911105A 就是内置网络变压器的 RJ45 座。内置网络变压器的 RJ45 座和不内置的引脚一样,但是一般不内置的 RJ45 座会短一点。因此,大家在画板的时候一定要考虑你所使用的 RJ45座是否内置网络变压器,如果不内置的话就要自行添加网络变压器部分电路!!!同理,如果你所设计的硬件是需要内置网络变压器的 RJ45 座,肯定不能随便焊接一个不内置变压器的 RJ45座,否则网络工作不正常!

RJ45 座子上一般有两个灯,一个黄色(橙色),一个绿色,绿色亮的话表示网络连接正常,黄色闪烁的话说明当前正在进行网络通信。这两个灯由 PHY 芯片控制,PHY 芯片会有两个引脚来连接 RJ45 座上的这两个灯。内部 MAC+外部 PHY+RJ45 座(内置网络变压器)就组成了一个完整的嵌入式网络接口硬件,如图 69.1.4.2 所示:

I.MX6ULL ENET 接口简介

I.MX6ULL 有两个网络接口,也就是两个 MAC 外设,一个 MAC 连接一个 PHY 芯片形成一个完整网络接口,本节我们简单了解一下 I.MX6ULL 自带的 ENET 接口。I.MX6ULL 内部自带的 ENET 外设其实就是一个网络 MAC,支持 10/100M。实现了三层网络加速,用于加速那些通用的网络协议,比如 IP、TCP、UDP 和 ICMP 等,为客户端应用程序提供加速服务。

I.MX6ULL 内核集成了两个 10/100Mbit/S 的网络 MAC,符合 IEEE802.3-2002 标准,MAC层支持双工、半双工局域网。MAC 可编程、可以作为 NIC 卡或其他一些交换器件。根据 IETF RFC 2819 协议,MAC 实现了 RMON(Remote Network Monitoring)计数功能。MAC 内核拥有硬件加速处理单元来提高网络性能,硬件加速单元用于处理 TCP/IP、UDP、ICMP 等协议。通过硬件来处理帧头等信息,效果要比用一大堆软件处理要好很多。ENET 外设有一个专用的 DMA,此 DMA 用于在 ENET 外设和 SOC 之间传输数据,并且支持可编程的增强型的缓冲描述符,用以支持 IEEE 1588。

I.MX6ULL 内部 ENET 外设主要特性如下:

1)、实现了全功能的 802.3 规范前导码/SFD 生成、帧填充、CRC 生成和检查。

2)、支持零长的前导码。

3)、支持 10/100M 动态配置。

4)、兼容 AMD 远端节点电源管理的魔术帧中断检测。

5)、可以通过如下接口无缝的连接 PHY 芯片:

·4bit 的 MII 接口,频率为 2.5/25MHz。

·4bit 的 MII-Lite 接口,也就是 MII 接口取消掉 CRS 和 COL 这两根线,频率也是2.5/25MHz。

·2bit 的 RMII 接口,频率为 50MHz。

6)、MAC 地址可编程。

7)、多播和单播地址过滤,降低更高层的处理负担。

8)、MDIO 主接口,用于管理和配置 PHY 设备。

……

I.MX6ULL 的 ENET 外设内容比较多,详细的介绍请查阅《I.MX6ULL 参考手册》的“Chapter 22 10/100-Mbps Ethernet MAC(ENET)”章节。我们在编写驱动的时候其实并不需要关注 ENET外设的具体内容,因为这部分驱动是 SOC 厂商编写的,我们重点关注的是更换 PHY 芯片以后哪里需要调整。

PHY 芯片详解

PHY 基础知识简介

PHY 是 IEEE 802.3 规定的一个标准模块,前面说了,SOC 可以对 PHY 进行配置或者读取PHY 相关状态,这个就需要 PHY 内部寄存器去实现了。PHY 芯片寄存器地址空间为 5 位,地址 0~31 共 32 个寄存器,IEEE 定义了 0~15 这 16 个寄存器的功能,16~31 这 16 个寄存器由厂商自行实现。也就是说不管你用的哪个厂家的 PHY 芯片,其中 0~15 这 16 个寄存器是一模一样的。仅靠这 16 个寄存器是完全可以驱动起 PHY 芯片的,至少能保证基本的网络数据通信,因此 Linux 内核有通用 PHY 驱动,按道理来讲,不管你使用的哪个厂家的 PHY 芯片,都可以 使用 Linux 的这个通用 PHY 驱动来验证网络工作是否正常。事实上在实际开发中可能会遇到一些其他的问题导致 Linux 内核的通用 PHY 驱动工作不正常,这个时候就需要驱动开发人员去调试了。但是,随着现在的 PHY 芯片性能越来越强大,32 个寄存器可能满足不了厂商的需求,因此很多厂商采用分页技术来扩展寄存器地址空间,以求定义更多的寄存器。这些多出来的寄存器可以用于实现厂商特有的一些技术,因此 Linux 内核的通用 PHY 驱动就无法驱动这些特色功能了,这个时候就需要 PHY 厂商提供相应的驱动源码了,所以大家也会在 Linux 内核里面看 到很多具体的 PHY 芯片驱动源码。不管你的 PHY 芯片有多少特色功能,按道理来讲,Linux 内核的通用 PHY 驱动是绝对可以让你这 PHY 芯片实现基本的网络通信,因此大家也不用担心更换 PHY 芯片以后网络驱动编写是不是会很复杂。

IEEE802.3 协议英文原版已经放到了开发板光盘中,路径为 4、参考资料->802.3 协议英文原版_2018年.pdf,打开此文档,此文档有5600页,按照SECTION进行分类,一共8个SECTION。选中“802.3-2018_SECTION2”,找到“22.2.4 Management functions”章节,此章节对 PHY 的前16 个寄存器功能进行了规定,如图 69.2.1.1 所示:

关于这 16 个寄存器的内容协议里面也进行了详细的讲解,这里就不分析了。我们后面会以ALPHA 开发板所使用的 LAN8720A/SR8201F 这两个 PHY 为例,详细的分析一下 PHY 芯片的寄存器。

SR8201F 详解

V2.4 及以后版本的底板 PHY 芯片采用 SR8201F,因此请看本小节!

1、SR8201F 简介

SR8201F 是单芯片/单端口的 10/100Mbps 以太网 PHY 收发器。芯片支持 RMII (简化介质独立)接口,SR8201F 实现了所有 10/100M 以太网物理层,包括:物理编码子层 (PCS),物理介质接入层(PMA),双绞线物理介质相关子层 (TP-PMD),同时芯片支持端口自动翻转(Auto-MDIX)。

SR8201F 的主要特点如下:

· 支持 IEEE 802.3az-2010(EEE)

· 兼容 100Base-TX IEEE 802.3u

· 兼容 10Base-T IEEE 802.3

· 支持 RMII 模式

· 全/半双工工作

· 支持自协商模式

· 支持 Auto-MDIX

· 支持中断功能

· SR8201F 提供两个网络状态的 LED

· 支持 25MHz 晶振或外部振荡输入

· RMII 模式支持 50MHz 外部时钟输入

SR8201F 功能框图如图 69.2.3.1 所示。

2、SR8201F 中断管理

SR8201F 检测到媒介端的状态改变,就会写入对应中断状态的寄存器(第 0 页寄存器 14),并且在中断管脚使能时,中断管脚会被置低表示发生一个中断事件。当 MAC 检测到中断事件时,可以通过 MDC/MDIO 端口访问到第 0 页寄存器 14 获取相应的中断状态。正点原子的ALPHA 开发板虽然将 SR8201F 的中断引脚连接到了 I.MX6ULL 上,但是并没有使用中断功能关于中断的具体用法可以参考 SR8201F 数据手册。

3、PHY 地址设置

MAC 层通过 MDIO/MDC 总线对 PHY 进行读写操作,MDIO 最多可以控制 32 个 PHY 芯片,通过不同的 PHY 芯片地址来对不同的 PHY 操作。SR8201F 通过设置 LED0/PHYAD[0]和LED1/PHYAD[1]这两个引脚来设置其 PHY 地址,其地址设置如表 69.2.3.1 所示。

正点原子 ALPHA 开发板 ENET1 网络的 SR8201F 上的 LED1/PHYAD1 引脚上拉,LED0/PHYDAD0 引脚下来下拉,因此 ENET1 上的 SR8201F 地址为 0X02。ENET2 网络上的SR8201F 的 LED1/PHYAD1 引脚下拉,LED0/PHYAD0 引脚上拉,因此 ENET2 上的 SR8201F地址为 1。

4、SR8021F 内部寄存器

SR8201F 的前 16 个寄存器满足 IEEE 的要求,在这里我们只介绍几个常用的寄存器,首先是BCR(Basic Control Rgsister)寄存器,地址为 0,BCR 寄存器各位如表 69.2.3.2 所示。

我们说的配置 PHY 芯片,重点就是配置 BCR 寄存器,由于 SR8201F 是个 10/100M的 PHY,因此表 69.2.3.3 中没有体现出 1000M 相关的配置。但是 10/100M 相关的配置是和 IEEE 的规定完全相符的,大家可以选择一个其他的 10/100M 的 PHY 芯片对比看一下,比如 NXP 官方 EVK开发板使用的 KSZ8081。

接下来看一下 BSR(Basic Status Register)寄存器,地址为 1。此寄存器为 PHY 的状态寄存器,通过此寄存器可以获取到 PHY 芯片的工作状态,BSR 寄存器各位如表 69.2.3.4 所示:

从表 69.2.3.4 可以看出,和 IEEE 标准规定相比,SR8201F 的 BSR 寄存器少了几个位,这个没关系的,不管什么 PHY 芯片,只要它实现了的位和 IEEE 规定相符就行。通过读取 BSR 寄存器的值我们可以得到当前的连接速度、双工状态和连接状态等。

接下来看一下 SR8201F 的 PHY ID 寄存器 1 和 ID 寄存器 2,地址为 2 和 3,后面就称为寄存器 2 和寄存器 3。这两个寄存器都是 PHY 的 ID 寄存器。IEEE 规定寄存器 2 和寄存器 3 为PHY 的 ID 寄存器,这两个寄存器组成一个 32 位的唯一 ID 值。

关于 SR8201F 的 PHY 寄存器就简单讲这几个,其他的寄存器请自行查阅 SR8201F 数据手册。

Linux 内核网络驱动框架

net_device 结构体

Linux 内核使用 net_device 结构体表示一个具体的网络设备,net_device 是整个网络驱动的灵魂。网络驱动的核心就是初始化 net_device 结构体中的各个成员变量,然后将初始化完成以后的 net_device 注册到 Linux 内核中。net_device 结构体定义在 include/linux/netdevice.h 中,net_device 是一个庞大的结构体,内容如下(有缩减):

待补充。

下面介绍一些关键的成员变量,如下:

第 2 行:name 是网络设备的名字。

第 9 行:mem_end 是共享内存结束地址。

第 10 行:mem_start 是共享内存起始地址。

第 11 行:base_addr 是网络设备 I/O 地址。

第 12 行:irq 是网络设备的中断号。

第 24 行:dev_list 是全局网络设备列表。

第 25 行:napi_list 是 napi 网络设备的列表入口。

第 26 行:unreg_list 是注销(unregister)的网络设备列表入口。

第 27 行:close_list 是关闭的网络设备列表入口。

第 60 行:netdev_ops 是网络设备的操作集函数,包含了一系列的网络设备操作回调函数,类似字符设备中的 file_operations,稍后会讲解 netdev_ops 结构体。

第 61 行:ethtool_ops 是网络管理工具相关函数集,用户空间网络管理工具会调用此结构体中的相关函数获取网卡状态或者配置网卡。

第 66 行:header_ops 是头部的相关操作函数集,比如创建、解析、缓冲等。

第 68 行:flags 是网络接口标志,标志类型定义在 include/uapi/linux/if.h 文件中,为一个枚举类型,内容如下:

继续回到示例代码 69.3.1.1 接着看 net_device 结构体。

第 77 行:if_port 指定接口的端口类型,如果设备支持多端口的话就通过 if_port 来指定所使用的端口类型。可选的端口类型定义在 include/uapi/linux/netdevice.h 中,为一个枚举类型,如下所示:

第 78 行:dma 是网络设备所使用的 DMA 通道,不是所有的设备都会用到 DMA。

第 80 行:mtu 是网络最大传输单元,为 1500。

第 81 行:type 用于指定 ARP 模块的类型,以太网的 ARP 接口为 ARPHRD_ETHER,Linux内核所支持的 ARP 协议定义在 include/uapi/linux/if_arp.h 中,大家自行查阅。

第 88 行:perm_addr 是永久的硬件地址,如果某个网卡设备有永久的硬件地址,那么就会填充 perm_addr。

第 90 行:addr_len 是硬件地址长度。

第 133 行:last_rx 是最后接收的数据包时间戳,记录的是 jiffies。

第 136 行:dev_addr 也是硬件地址,是当前分配的 MAC 地址,可以通过软件修改。

第 140 行:_rx 是接收队列。

第 142 行:num_rx_queues 是接收队列数量,在调用 register_netdev 注册网络设备的时候会分配指定数量的接收队列。

第 143 行:real_num_rx_queues 是当前活动的队列数量。

第 161 行:_tx 是发送队列。

第 162 行:num_tx_queues 是发送队列数量,通过 alloc_netdev_mq 函数分配指定数量的发送队列。

第 163 行:real_num_tx_queues 是当前有效的发送队列数量。

第 179 行:trans_start 是最后的数据包发送的时间戳,记录的是 jiffies。

第 248 行:phydev 是对应的 PHY 设备。

1、申请 net_device

编写网络驱动的时候首先要申请 net_device,使用 alloc_netdev 函数来申请 net_device,这是一个宏,宏定义如下:

可以看出 alloc_netdev 的本质是 alloc_netdev_mqs 函数,此函数原型如下

函数参数和返回值含义如下:

sizeof_priv:私有数据块大小。

name:设备名字。

setup:回调函数,初始化设备的设备后调用此函数。

txqs:分配的发送队列数量。

rxqs:分配的接收队列数量。

返回值:如果申请成功的话就返回申请到的 net_device 指针,失败的话就返回 NULL。

事实上网络设备有多种,大家不要以为就只有以太网一种。Linux 内核内核支持的网络接口有很多,比如光纤分布式数据接口(FDDI)、以太网设备(Ethernet)、红外数据接口(InDA)、高性能并行接口(HPPI)、CAN 网络等。内核针对不同的网络设备在 alloc_netdev 的基础上提供了一层封装,比如我们本章讲解的以太网,针对以太网封装的 net_device 申请函数是 alloc_etherdev和,这也是一个宏,内容如下:

可 以看出 ,alloc_etherdev 最 终依靠 的是 alloc_etherdev_mqs 函数 ,此函 数就是 对alloc_netdev_mqs 的简单封装,函数内容如下:

第 5 行调用 alloc_netdev_mqs 来申请 net_device,注意这里设置网卡的名字为“eth%d”,这是格式化字符串,大家进入开发板的 linux 系统以后看到的“eth0”、“eth1”这样的网卡名字就是从这里来的。同样的,这里设置了以太网的 setup 函数为 ether_setup,不同的网络设备其 setup函数不同,比如 CAN 网络里面 setup 函数就是 can_setup。ether_setup 函数会对 net_device 做初步的初始化,函数内容如下所示:

关于 net_device 的申请就讲解到这里,对于网络设备而言,使用 alloc_etherdev 或alloc_etherdev_mqs 来申请 net_device。NXP 官方编写的网络驱动就是采用 alloc_etherdev_mqs来申请 net_device。

2、删除 net_device

当我们注销网络驱动的时候需要释放掉前面已经申请到的 net_device,释放函数为free_netdev,函数原型如下:

void free_netdev(struct net_device *dev)

函数参数和返回值含义如下:

dev:要释放掉的 net_device 指针。

返回值:无。

3、注册 net_device

net_device 申请并初始化完成以后就需要向内核注册 net_device,要用到函数 register_netdev,函数原型如下:

int register_netdev(struct net_device *dev)

函数参数和返回值含义如下:

dev:要注册的 net_device 指针。

返回值:0 注册成功,负值 注册失败。

4、注销 net_device

既然有注册,那么必然有注销,注销 net_device 使用函数 unregister_netdev,函数原型如下:

void unregister_netdev(struct net_device *dev)

函数参数和返回值含义如下:

dev:要注销的 net_device 指针。

返回值:无。

net_device_ops 结构体

net_device 有个非常重要的成员变量:netdev_ops,为 net_device_ops 结构体指针类型,这就是网络设备的操作集。net_device_ops 结构体定义在 include/linux/netdevice.h 文件中,net_device_ops 结构体里面都是一些以“ndo_”开头的函数,这些函数就需要网络驱动编写人员去实现,不需要全部都实现,根据实际驱动情况实现其中一部分即可。结构体内容如下所示(结构体比较大,这里有缩减):

待补充。

第 2 行:ndo_init 函数,当第一次注册网络设备的时候此函数会执行,设备可以在此函数中做一些需要推后初始化的内容,不过一般驱动中不使用此函数,虚拟网络设备可能会使用。

第 3 行:ndo_uninit 函数,卸载网络设备的时候此函数会执行。

第 4 行:ndo_open 函数,打开网络设备的时候此函数会执行,网络驱动程序需要实现此函数,非常重要!以 NXP 的 I.MX 系列 SOC 网络驱动为例,会在此函数中做如下工作:

·使能网络外设时钟。

·申请网络所使用的环形缓冲区。

·初始化 MAC 外设。

·绑定接口对应的 PHY。

·如果使用 NAPI 的话要使能 NAPI 模块,通过 napi_enable 函数来使能。

·开启 PHY。

·调用 netif_tx_start_all_queues 来使能传输队列,也可能调用 netif_start_queue 函数。

·……

第 5 行:ndo_stop 函数,关闭网络设备的时候此函数会执行,网络驱动程序也需要实现此

函数。以 NXP 的 I.MX 系列 SOC 网络驱动为例,会在此函数中做如下工作:

·停止 PHY。

·停止 NAPI 功能。

·停止发送功能。

·关闭 MAC。

·断开 PHY 连接。

·关闭网络时钟。

·释放数据缓冲区。

·……

第 6 行:ndo_start_xmit 函数,当需要发送数据的时候此函数就会执行,此函数有一个参数为 sk_buff 结构体指针,sk_buff 结构体在 Linux 的网络驱动中非常重要,sk_buff 保存了上层传递给网络驱动层的数据。也就是说,要发送出去的数据都存在了 sk_buff 中,关于 sk_buff 稍后会做详细的讲解。如果发送成功的话此函数返回 NETDEV_TX_OK,如果发送失败了就返回NETDEV_TX_BUSY,如果发送失败了我们就需要停止队列。

第 8 行:ndo_select_queue 函数,当设备支持多传输队列的时候选择使用哪个队列。

第 14 行:ndo_set_rx_mode 函数,此函数用于改变地址过滤列表,根据 net_device 的 flags成员变量来设置 SOC 的网络外设寄存器。比如 flags 可能为 IFF_PROMISC、IFF_ALLMULTI 或 IFF_MULTICAST,分别表示混杂模式、单播模式或多播模式。

第 15 行:ndo_set_mac_address 函数,此函数用于修改网卡的 MAC 地址,设置 net_device的 dev_addr 成员变量,并且将 MAC 地址写入到网络外设的硬件寄存器中。

第 17 行:ndo_validate_addr 函数,验证 MAC 地址是否合法,也就是验证 net_device 的dev_addr 中的 MAC 地址是否合法,直接调用 is_valid_ether_addr 函数。

第 18 行:ndo_do_ioctl 函数,用户程序调用 ioctl 的时候此函数就会执行,比如 PHY 芯片相关的命令操作,一般会直接调用 phy_mii_ioctl 函数。

第 22 行:ndo_change_mtu 函数,更改 MTU 大小。

第 26 行:ndo_tx_timeout 函数,当发送超时的时候函数会执行,一般都是网络出问题了导致发送超时。一般可能会重启 MAC 和 PHY,重新开始数据发送等。

第 37 行:ndo_poll_controller 函数,使用查询方式来处理网卡数据的收发。

第 104 行:ndo_set_features 函数,修改 net_device 的 features 属性,设置相应的硬件属性。

sk_buff 结构体

网络是分层的,对于应用层而言不用关心具体的底层是如何工作的,只需要按照协议将要发送或接收的数据打包好即可。打包好以后都通过 dev_queue_xmit 函数将数据发送出去,接收数据的话使用 netif_rx 函数即可,我们依次来看一下这两个函数。

1、dev_queue_xmit 函数

此函数用于将网络数据发送出去,函数定义在 include/linux/netdevice.h 中,函数原型如下:

static inline int dev_queue_xmit(struct sk_buff *skb)

函数参数和返回值含义如下:

skb:要发送的数据,这是一个 sk_buff 结构体指针,sk_buff 是 Linux 网络驱动中一个非常重要的结构体,网络数据就是以 sk_buff 保存的,各个协议层在 sk_buff 中添加自己的协议头,最终由底层驱动将 sk_buff 中的数据发送出去。网络数据的接收过程恰好相反,网络底层驱动将接收到的原始数据打包成 sk_buff,然后发送给上层协议,上层会取掉相应的头部,然后将最终的数据发送给用户。

返回值:0 发送成功,负值 发送失败。

dev_queue_xmit 函数太长,这里就不详细的分析了,dev_queue_xmit 函数最终是通过net_device_ops 操作集里面的 ndo_start_xmit 函数来完成最终发送了,ndo_start_xmit 就是网络驱动编写人员去实现的,整个流程如图 69.3.3.1 所示:

2、netif_rx 函数

上层接收数据的话使用 netif_rx 函数,但是最原始的网络数据一般是通过轮询、中断或 NAPI的方式来接收。netif_rx 函数定义在 net/core/dev.c 中,函数原型如下:

int netif_rx(struct sk_buff *skb)

函数参数和返回值含义如下:

skb:保存接收数据的 sk_buff,。

返回值:NET_RX_SUCCESS 成功,NET_RX_DROP 数据包丢弃。

我们重点来看一下 sk_buff 这个结构体,sk_buff 是 Linux 网络重要的数据结构,用于管理接收或发送数据包,sk_buff 结构体定义在 include/linux/skbuff.h 中,结构体内容如下(由于结构体比较大,为了缩小篇幅只列出部分重要的内容):

待补充

第 5~6 行:next 和 prev 分别指向下一个和前一个 sk_buff,构成一个双向链表。

第 9 行:tstamp 表示数据包接收时或准备发送时的时间戳。

第 15 行:sk 表示当前 sk_buff 所属的 Socket。

第 16 行:dev 表示当前 sk_buff 从哪个设备接收到或者发出的。

第 24 行:cb 为控制缓冲区,不管哪个层都可以自由使用此缓冲区,用于放置私有数据。

第 27 行:destructor 函数,当释放缓冲区的时候可以在此函数里面完成某些动作。

第 37 行:len 为实际的数据长度,包括主缓冲区中数据长度和分片中的数据长度。data_len为数据长度,只计算分片中数据的长度。

第 38 行:mac_len 为连接层头部长度,也就是 MAC 头的长度。

第 145 行:protocol 协议。

第 146 行:transport_header 为传输层头部。

第 147 行:network_header 为网络层头部

第 148 行:mac_header 为链接层头部。

第 155 行:tail 指向实际数据的尾部。

第 156 行:end 指向缓冲区的尾部。

第 157 行:head 指向缓冲区的头部,data 指向实际数据的头部。data 和 tail 指向实际数据的头部和尾部,head 和 end 指向缓冲区的头部和尾部。结构如图 69.3.3.2 所示:

针对 sk_buff 内核提供了一系列的操作与管理函数,我们简单看一些常见的 API 函数:

1、分配 sk_buff

要使用 sk_buff 必须先分配,首先来看一下 alloc_skb 这个函数,此函数定义在include/linux/skbuff.h 中,函数原型如下:

static inline struct sk_buff *alloc_skb(unsigned int size, gfp_t priority)

函数参数和返回值含义如下:

size:要分配的大小,也就是 skb 数据段大小。

priority:为 GFP MASK 宏,比如 GFP_KERNEL、GFP_ATOMIC 等。

返回值:分配成功的话就返回申请到的 sk_buff 首地址,失败的话就返回 NULL。

在网络设备驱动中常常使用 netdev_alloc_skb 来为某个设备申请一个用于接收的 skb_buff,

此函数也定义在 include/linux/skbuff.h 中,函数原型如下:

static inline struct sk_buff *netdev_alloc_skb(struct net_device *dev, unsigned int length)

函数参数和返回值含义如下:

dev:要给哪个设备分配 sk_buff。

length:要分配的大小。

返回值:分配成功的话就返回申请到的 sk_buff 首地址,失败的话就返回 NULL。

2、释放 sk_buff

当使用完成以后就要释放掉 sk_buff,释放函数可以使用 kfree_skb,函数定义在include/linux/skbuff.c 中,函数原型如下:

void kfree_skb(struct sk_buff *skb)

函数参数和返回值含义如下:

skb:要释放的 sk_buff。

返回值:无。

对于网络设备而言最好使用如下所示释放函数:

void dev_kfree_skb (struct sk_buff *skb)

函数只要一个参数 skb,就是要释放的 sk_buff。

3、skb_put、skb_push、sbk_pull 和 skb_reserve

这四个函数用于变更 sk_buff,先来看一下 skb_put 函数,此函数用于在尾部扩展 skb_buff的数据区,也就将 skb_buff 的 tail 后移 n 个字节,从而导致 skb_buff 的 len 增加 n 个字节,原型如下:

unsigned char *skb_put(struct sk_buff *skb, unsigned int len)

函数参数和返回值含义如下:

skb:要操作的 sk_buff。

len:要增加多少个字节。

返回值:扩展出来的那一段数据区首地址。

skb_put 操作之前和操作之后的数据区如图 69.3.3.3 所示:

skb_push 函数用于在头部扩展 skb_buff 的数据区,函数原型如下所示:

unsigned char *skb_push(struct sk_buff *skb, unsigned int len)

函数参数和返回值含义如下:

skb:要操作的 sk_buff。

len:要增加多少个字节。

返回值:扩展完成以后新的数据区首地址。

skb_push 操作之前和操作之后的数据区如图 69.3.3.4 所示:

sbk_pull 函数用于从 sk_buff 的数据区起始位置删除数据,函数原型如下所示:

unsigned char *skb_pull(struct sk_buff *skb, unsigned int len)

函数参数和返回值含义如下:

skb:要操作的 sk_buff。

len:要删除的字节数。

返回值:删除以后新的数据区首地址。

skb_pull 操作之前和操作之后的数据区如图 69.3.3.5 所示:

sbk_reserve 函数用于调整缓冲区的头部大小,方法很简单将 skb_buff 的 data 和 tail 同时后移 n 个字节即可,函数原型如下所示:

static inline void skb_reserve(struct sk_buff *skb, int len)

函数参数和返回值含义如下:

skb:要操作的 sk_buff。

len:要增加的缓冲区头部大小。

返回值:无。

网络 NAPI 处理机制

如果玩过单片机的话应该都知道,像 IIC、SPI、网络等这些通信接口,接收数据有两种方法:轮询或中断。Linux 里面的网络数据接收也轮询和中断两种,中断的好处就是响应快,数据量小的时候处理及时,速度快,但是一旦当数据量大,而且都是短帧的时候会导致中断频繁发生,消耗大量的 CPU 处理时间在中断自身处理上。轮询恰好相反,响应没有中断及时,但是在处理大量数据的时候不需要消耗过多的 CPU 处理时间。Linux 在这两个处理方式的基础上提出了另外一种网络数据接收的处理方法:NAPI(New API),NAPI 是一种高效的网络处理技术。

NAPI 的核心思想就是不全部采用中断来读取网络数据,而是采用中断来唤醒数据接收服务程序,在接收服务程序中采用 POLL 的方法来轮询处理数据。这种方法的好处就是可以提高短数据包的接收效率,减少中断处理的时间。目前 NAPI 已经在 Linux 的网络驱动中得到了大量的应用,NXP 官方编写的网络驱动都是采用的 NAPI 机制。

关于 NAPI 详细的处理过程本章节不讨论,本章节就简单讲解一下如何在驱动中使用 NAPI,Linux 内核使用结构体 napi_struct 表示 NAPI,在使用 NAPI 之前要先初始化一个 napi_struct 实例。

1、初始化 NAPI

首先要初始化一个 napi_struct 实例,使用 netif_napi_add 函数,此函数定义在 net/core/dev.c中,函数原型如下:

函数参数和返回值含义如下:

dev:每个 NAPI 必须关联一个网络设备,此参数指定 NAPI 要关联的网络设备。

napi:要初始化的 NAPI 实例。

poll:NAPI 所使用的轮询函数,非常重要,一般在此轮询函数中完成网络数据接收的工作。

weight:NAPI 默认权重(weight),一般为 NAPI_POLL_WEIGHT。

返回值:无。

2、删除 NAPI

如果要删除 NAPI,使用 netif_napi_del 函数即可,函数原型如下:

void netif_napi_del(struct napi_struct *napi)

函数参数和返回值含义如下:

napi:要删除的 NAPI。

返回值:无。

3、使能 NAPI

初始化完 NAPI 以后,必须使能才能使用,使用函数 napi_enable,函数原型如下:

inline void napi_enable(struct napi_struct *n)

函数参数和返回值含义如下:

n:要使能的 NAPI。

返回值:无。

4、关闭 NAPI

关闭 NAPI 使用 napi_disable 函数即可,函数原型如下:

void napi_disable(struct napi_struct *n)

函数参数和返回值含义如下:

n:要关闭的 NAPI。

返回值:无。

5、检查 NAPI 是否可以进行调度

使用 napi_schedule_prep 函数检查 NAPI 是否可以进行调度,函数原型如下:

inline bool napi_schedule_prep(struct napi_struct *n)

函数参数和返回值含义如下:

n:要检查的 NAPI。

返回值:如果可以调度就返回真,如果不可调度就返回假。

6、NAPI 调度

如果可以调度的话就进行调度,使用__napi_schedule 函数完成 NAPI 调度,函数原型如下:

void __napi_schedule(struct napi_struct *n)

函数参数和返回值含义如下:

n:要调度的 NAPI。

返回值:无。

我们也可以使用 napi_schedule 函数来一次完成 napi_schedule_prep 和__napi_schedule 这两个函数的工作,napi_schedule 函数内容如下所示:

从 示 例 代 码 69.3.4.1 可 以 看 出 , napi_schedule 函 数 就 是 对 napi_schedule_prep 和__napi_schedule 的简单封装,一次完成判断和调度。

7、NAPI 处理完成

NAPI 处理完成以后需要调用 napi_complete 函数来标记 NAPI 处理完成,函数原型如下:

inline void napi_complete(struct napi_struct *n)

函数参数和返回值含义如下:

n:处理完成的 NAPI。

返回值:无。

I.MX6ULL 网络驱动简介

I.MX6ULL 网络外设设备树

上一小节我们对 Linux 的网络驱动框架进行了一个简单的介绍,本节我们就来简单分析一下 I.MX6ULL 的网络驱动源码。I.MX6ULL 有两个 10/100M 的网络 MAC 外设,因此 I.MX6ULL网络驱动主要就是这两个网络 MAC 外设的驱动。这两个外设的驱动都是一样的,我们分析其中一个就行了,首先肯定是设备树, NXP 的 I.MX 系 列 SOC 网 络 绑 定 文 档 为Documentation/devicetree/bindings/net/fsl-fec.txt,此绑定文档描述了 I.MX 系列 SOC 网络设备树节点的要求。

①、必要属性

compatible:这个肯定是必须的,一般是“fsl,<soc>-fec”,比如 I.MX6ULL 的 compatible 属性就是"fsl,imx6ul-fec",和"fsl,imx6q-fec"。

reg:SOC 网络外设寄存器地址范围。

interrupts:网络中断。

phy-mode:网络所使用的 PHY 接口模式,是 MII 还是 RMII。

②、可选属性

phy-reset-gpios:PHY 芯片的复位引脚。

phy-reset-duration:PHY 复位引脚复位持续时间,单位为毫秒。只有当设置了 phy-reset-gpios 属性此属性才会有效,如果不设置此属性的话 PHY 芯片复位引脚的复位持续时间默认为 1 毫秒,数值不能大于 1000 毫秒,大于 1000 毫秒的话就会强制设置为 1 毫秒。

phy-supply:PHY 芯片的电源调节。

phy-handle:连接到此网络设备的 PHY 芯片句柄。

fsl,num-tx-queues:此属性指定发送队列的数量,如果不指定的话默认为 1。

fsl,num-rx-queues:此属性指定接收队列的数量,如果不指定的话默认为 2。

内容太多,暂略。

具体查看正点原子手册。

……

至此,关于 Linux 的网络驱动就讲到这里,整体比较复杂,但是实际使用起来确实非常简单的,尤其是对这种内置 MAC+外置 PHY 的网络方案而言,几乎不需要我们修改驱动,因为内核已经继承了通用 PHY 驱动了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值