深度学习中的正则化技术 - 噪声鲁棒性篇

序言

在深度学习的蓬勃发展中,模型的性能与泛化能力成为了研究者们关注的焦点。然而,实际应用中的数据往往伴随着各种噪声,这些噪声不仅来源于数据采集过程中的硬件限制,还可能由环境干扰、传输错误等因素引入。噪声的存在严重影响了深度学习模型的训练效果和预测准确性,尤其是在语音识别、图像分类等任务中更为显著。因此,提升深度学习模型的噪声鲁棒性,即增强模型在噪声环境下的稳定表现和识别能力,成为了当前研究的一个重要方向。通过设计更有效的数据预处理算法、优化模型结构以及引入噪声增强训练等技术手段,可以显著提高深度学习模型对噪声的抵抗能力,从而推动其在更多复杂场景下的应用。

噪声鲁棒性

  • 深度学习中的正则化技术 - 数据集增强篇中已经启发将噪声作用于输入,作为数据集增强策略。对于某些模型,在模型的输入加上方差极小的噪音等价于对权重加范数惩罚(Bishop, 1995a,b)。在一般情况下,噪声注入远比简单地收缩参数强大,特别是噪声被添加到隐藏单元时更加强大。向隐藏单元添加噪音是值得单独讨论重要的话题
  • 另一种正则化模型的噪声使用方式是将其加到的权重。这项技术主要用于循环神经网络(Jim et al., 1996; Graves, 2011)。这可以解释为关于权重的贝叶斯推断的随机实现。使用贝叶斯处理学习过程将权重视为不确定的,并且可以通过概率分布表示这种不确定性。向权重添加噪声是反映这种不确定性的一种实用的随机方法。
  • 在某些假设下,施加于权重的噪声可以被解释为与更传统正则化形式等同,鼓励要学习的函数的稳定性。
  • 我们研究回归的情形,也就是训练将一组特征 x \boldsymbol{x} x映射成一个标量的函数 y ^ ( x ) \hat{y}(\boldsymbol{x}) y^(x),并使用最小二乘代价函数衡量模型预测值 y ^ \hat{y} y^与真实值 y y y的误差
    J = E p ( x , y ) [ ( y ^ ( x ) − y ) 2 ] —公式1 J=\mathbb{E}_{p(x,y)}[(\hat{y}(\boldsymbol{x})-y)^2]\quad\textbf{\footnotesize{---公式1}} J=Ep(x,y)[(y^(x)y)2]公式1
  • 训练集包含 m m m对标注样例 { ( x ( i ) , y ( i ) ) , … , ( x ( m ) , y ( m ) ) } \{(\boldsymbol{x}^{(i)},y^{(i)}),\dots,(\boldsymbol{x}^{(m)},y^{(m)})\} {(x(i),y(i)),,(x(m),y(m))}
  • 现在我们假设在每个输入表示上添加网络权重的随机扰动 ϵ w ∼ N ( ϵ ; 0 , η I ) \epsilon_w\sim\mathcal{N}(\boldsymbol{\epsilon};0,\eta\boldsymbol{I}) ϵwN(ϵ;0,ηI)想象我们有一个标准的 l l l MLP \text{MLP} MLP。我们将扰动模型记为 y ^ ϵ W ( x ) \hat{y}_{\epsilon_{\boldsymbol{W}}}(\boldsymbol{x}) y^ϵW(x)
  • 尽管有噪声注入,我们仍对减少网络输出误差的平方感兴趣。因此目标函数为: { J ^ W = E p ( x , y , ϵ W ) [ ( y ^ ϵ W ( x ) − y ) 2 ] —公式2 = E p ( x , y , ϵ W ) [ y ^ ϵ W 2 ( x ) − 2 y y ^ ϵ W ( x ) + y 2 ] —公式3 \begin{cases}\begin{aligned}\hat{J}_{\boldsymbol{W}}&=\mathbb{E}_p(\boldsymbol{x},y,\epsilon_{\boldsymbol{W}})[(\hat{y}_{\epsilon_{\boldsymbol{W}}}(\boldsymbol{x})-y)^2]\quad\textbf{\footnotesize{---公式2}}\\&=\mathbb{E}_p(\boldsymbol{x},y,\epsilon_{\boldsymbol{W}})[\hat{y}_{\epsilon_{\boldsymbol{W}}}^2(\boldsymbol{x})-2y\hat{y}_{\epsilon_{\boldsymbol{W}}}(\boldsymbol{x})+y^2]\quad\textbf{\footnotesize{---公式3}}\end{aligned}\end{cases} {J^W=Ep(x,y,ϵW)[(y^ϵW(x)y)2]公式2=Ep(x,y,ϵW)[y^ϵW2(x)2yy^ϵW(x)+y2]公式3
  • 对于小的 η \eta η,最小化带权重噪声(方差为 η I \eta\boldsymbol{I} ηI)的 J J J等同于最小化附加正则化项的 J : η E p ( x , y ) [ ∥ ∇ W y ^ ( x ) ∥ 2 ] J:\eta\mathbb{E}_{p(x,y)}\left[\Vert\nabla_{\boldsymbol{W}}\hat{y}(\boldsymbol{x})\Vert^2\right] J:ηEp(x,y)[Wy^(x)2]
  • 这种形式的正则化鼓励参数进入权重小扰动对输出相对影响较小的参数空间区域。换句话说,它推动模型进入对权重小的变化相对不敏感的区域,找到的点不只是极小点,还是由平坦区域所包围的最小点 (Hochreiter and Schmidhuber, 1995)。
  • 在简化的线性回归中(例如, y ^ ( x ) = w ⊤ x + b \hat{y}(\boldsymbol{x})=\boldsymbol{w}^\top\boldsymbol{x}+b y^(x)=wx+b,正则项退化为: η E p ( x ) [ ∥ x ∥ 2 ] \eta\mathbb{E}_{p(x)}[\Vert\boldsymbol{x}\Vert^2] ηEp(x)[x2],这与函数的参数无关,因此不会对 J ^ w \hat{J}_w J^w关于模型参数的梯度有贡献。

向输出目标注入噪声

  • 大多数数据集的 y y y标签都有一定错误。当 y y y是错误的,对最大化 log ⁡ p ( y ∣ x ) \log p(y\mid\boldsymbol{x}) logp(yx)会是有害的。
  • 为了防止这一点的一种方法是显式地对标签上的噪声进行建模。
    • 例如,我们可以假设,对于一些小常数 ϵ \epsilon ϵ,训练集标记 y y y是正确的概率是 1 − ϵ 1-\epsilon 1ϵ,任何其他可能的标签可能是正确的。
    • 这个假设很容易就能解析地与代价函数结合,而不用显式地采噪声样本。
    • 例如,标签平滑(label smoothing)基于 k k k个输出的 softmax \text{softmax} softmax函数,指明确分类 0 0 0 1 1 1替换成 ϵ k − 1 \displaystyle\frac{\epsilon}{k-1} k1ϵ 1 − ϵ 1-\epsilon 1ϵ,对模型进行正则化。
  • 标准交叉熵损失可以用在这些非确切目标的输出上。使用 softmax \text{softmax} softmax函数和明确目标的最大似然学习可能永远不会收敛—— softmax \text{softmax} softmax函数永远无法真正预测 0 0 0概率或 1 1 1概率,因此它会继续学习越来越大的权重,使预测更极端。使用如权重衰减等其他正则化策略能够防止这种情况。标签平滑的优势是能防止模型追求明确概率而不妨碍正确分类。这种策略自20世纪80年代就已经被使用,并在现代神经网络继续保持显著特色 (Szegedyet al., 2015)。

总结

  • 深度学习中噪声鲁棒性的提升是确保模型在真实世界环境中稳定工作的关键。通过一系列创新性的技术手段,如数据增强、噪声注入训练、模型结构优化等,我们能够有效提高模型对噪声的容忍度和识别精度。这些努力不仅促进了深度学习技术的进一步发展,也为语音识别、图像识别、自然语言处理等领域的实际应用带来了更加可靠和高效的解决方案。
  • 未来,随着研究的深入和技术的不断进步,我们有理由相信深度学习模型的噪声鲁棒性将得到进一步提升,为更多领域带来革命性的变革。

往期内容回归

深度学习中的正则化技术 - 数据集增强篇

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

绎岚科技

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值