神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达

8427b466698445c65ee1788473e58877.gif

©作者 | 倪云昊、郭宇芯等

单位 | 北京航空航天大学

本文作者均来自北京航空航天大学人工智能学院和复杂关键软件环境全国重点实验室黄雷副教授团队。一作倪云昊为研一学生,二作郭宇芯为大三学生,三作贾俊龙为研二学生,通讯作者为黄雷副教授(主页:https://huangleibuaa.github.io/)

神经网络通常由三部分组成:线性层、非线性层(激活函数)和标准化层。线性层是网络参数的主要存在位置,非线性层提升神经网络的表达能力,而标准化层(Normalization)主要用于稳定和加速神经网络训练,很少有工作研究它们的表达能力,例如,以 Batch Normalization 为例,它在预测阶段可以认为是线性变换,从表达上并未引入非线性。因此研究人员普遍认为 Normalization 并不能够提升模型的表达能力。

然而,最近由北京航空航天大学人工智能学院黄雷老师团队发表在 ICML 2024上的论文《On the Nonlinearity of Layer Normalization》指出,层标准化(Layer Normlization,LN)以及其计算退化版本 RMSNorm 具有非线性表达能力,并详细讨论了 LN 的万能近似分类能力。

c64a5788836ea57e18fdf4012e8dd21d.jpeg

论文标题:

On the Nonlinearity of Layer Normalization

论文链接:

https://arxiv.org/abs/2406.01255

该论文对 LN 的非线性进行了数学证明。并且提出了仅含线性层和 LN 的简单神经网络 LN-Net,在足够深的情况下,理论上,可以任意分类给定的样本和样本类别。这一发现打破了人们将各种 Normalization 视为不具有拟合能力的线性变换的惯性认知,而非线性层和标准化层也不再是互不相交的神经网络模块。

目前,随着 transformer 的广泛使用,LN 作为其中的固定组成部分,已经成为了一种普遍使用的技术,该研究在未来可能为神经网络架构提供新的理论依据,在这个方向上,具有开创性意义。

6e7abe7503089a169598b5280e666483.png

LN非线性的数学发现

对于非线性研究,文章并没有直接讨论 LN 本身的分析性质,而是更具有实用意义地探究了 LN 与数据之间的交互。

作者首先提出了统计量 SSR(Sum of Squares Ratio),描述两个类别下样本的线性可分性。当对样本进行线性变换时,SSR 也会发生变化。因此,定义样本在所有线性变换下对应的最小的 SSR 为 LSSR。文章指出,当 LSSR 越小时,样本之间的线性可分性越强。

然而,当对样本施加的线性变化替换为“线性变换-LN-线性变换”的结构时,发现得到的新的 SSR 有可能低于 LSSR,这验证了 LN 的非线性表达——如果 LN 是线性的,那么“线性变换-LN-线性变换”也是线性的,得到的新 SSR 不可能会低于 LSSR。

998e69a8680cbee7906d6e2b505800c1.png

LN在分类问题中的任意可分性

为了进一步研究,作者将 LN 拆分为两个步骤:中心化(centering)和尺度缩放 (scaling)。中心化从数学上是一个线性变换,因此 LN 的非线性主要存在于尺度缩放操作当中(文章中也称之为球面投影,是 RMSNorm 执行的操作)。作者以最为简单的线性不可分的异或数据为例,通过线性变换和球面投影将这四个点进行了正确分类。

 

0bf55338f35c78aee949e05974e0bb9a.png

更一般地,作者提出了使用 LN 和线性层对任意数目样本进行正确分类的算法,探究了 LN-Net 的万能近似能力。

5dfefe425053be1cbc3abea3ca1e10cd.png

通过构造算法步骤,将神经网络的逐层变换转换为同类样本合并问题,将万能近似分类问题转换为样例归并问题,并指出——对于任意标签的 m 个样本,都可以构造一个 O(m) 层的 LN-Net,对这 m 个样本进行正确分类。这一构造方法为计算神经网络的 VC 维也提供了新的思路。作者指出,在此基础上,可以推断出有 L 个层标准化层的 LN-Net,VC 维至少有 L+2。 

0c5b9b6a0db2a73d12a24879d709d1cc.png

afa1d7b9660f2d57984ade79da9af82b.png

LN非线性加强与实际应用

作者在证明了 LN 非线性的基础上,为进一步加强 LN 的非线性以便于实际应用,提出了分组层标准化技术 (LN-G)。作者在数学上从海森矩阵的角度预测分组能强化 LN 的非线性,并从实验上初步探测了 LN-G 的表达能力。

作者指出,在 CIFAR-10 随机标签数据集上,对于通常的线性层模型,其准确率不超过 20%;而使用线性层和 LN-G 构成的神经网络(不引入传统的激活函数作为非线性单元)能够取得 55.85% 的准确率。

b986dbfe12be8af7feadbbeb041ec30d.png

作者进一步探究了 LN-G 在无激活函数的卷积神经网络的分类效果,并实验上证明了这种没有激活函数的神经网络的确有着强大的拟合能力。此外,作者类比 MLP 上 GN 作用于整个样本上(将单个样本拉伸成一维向量,再进行 GN),提出了 LN-G-Position。在没有非线性层的 ResNet 网络上使用 LN-G-Position 方法在 CIFAR-10 数据集上能够取得 86.66% 的准确率,体现了 LN-G-Position 强大的表达能力。

9025519c3c255217109f908939d8d665.png

作者接下来在 Transformer 上进行了实验探究,将原本的 LN 替换为 LN-G,根据实验结果发现了分组层标准化能有效性提升 Transformer 网络的性能,证明了真实网络中,该理论的可行性。

298fffb7e28fd7072b7d4eaa9ce74a26.png

结论与展望

作者在《On the Nonlinearity of Layer Normalization》论文中,理论上首次证明了仅含有线性层和 LN 的模型的万能分类能力以及给定特定深度的模型的 VC 维下界,这里面最重要的意义是将传统深度神经网络的表达能力的分析朝广泛使用的现代真实网络迈出了一大步,这一点可能为未来的神经网络结构设计提供新的思路。

更多阅读

2b601e35193bdcdcb8a5eda3f0882481.png

d7eb220ee16ffccb690f3f53572f2c2b.png

08bbd0c15a7bb181473acbec3bb26c87.png

85e9fabfde6ec49121d04b809b78471e.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

73b85f123d02367de49e637de8111b71.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

20a9b9bc0c606e607ddf0fa21a6f4a08.jpeg

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值