01 正则化

深度学习中的正则化

什么是正则化

机器学习中的一个核心问题是设计不仅在训练数据集上表现好,而且在新输入上泛化号的算法。在机器学习中,许多策略被显式地设计来减少误差(可能会以增大训练误差为代价)。这些策略被统称为正则化。

参数范数惩罚

许多正则化方法通过对目标函数 J J J添加一个参数范数惩罚 Ω ( θ ) \varOmega(\theta) Ω(θ),限制模型的学习能力。我们将正则化后的目标函数记为 J ~ \tilde J J~:
J ~ ( θ ; X , y ) = J ( θ ; X , y ) + α Ω ( θ ) \begin{aligned} \tilde J ( \boldsymbol{\theta}; \boldsymbol{X}, \boldsymbol{y})=J(\boldsymbol{\theta};\boldsymbol{X},\boldsymbol{y}) +\alpha\varOmega(\boldsymbol{\theta}) \end{aligned} J~(θ;X,y)=J(θ;X,y)+αΩ(θ)
其中 α ∈   [ 0 , ∞ ) \alpha \in\:[0,\infty) α[0,)是权衡范数惩罚项 Ω \varOmega Ω和标准目标函数 J ( X ; Ω ) J(\boldsymbol{X};\boldsymbol{\varOmega}) J(X;Ω)相对贡献的超参数。将 α \alpha α设为0表示没有正则化; α \alpha α越大,对应正则化惩罚越大。

惩罚的参数对象

在神经网络中,参数包括每一层仿射变换的权重和偏置,通常只对权重做惩罚而不对偏置做正则化惩罚。原因:

  1. 精确拟合偏置的数据通常比拟合权重少的多,权重会指定两个变量如何相互作用。而我们需要在复杂的条件下两个变量才能良好地拟合权重。单个偏置仅控制一个变量,即不对其进行正则化也不会导致太大的方差。
  2. 正则化偏置可能会导致明显的欠拟合。
  • 一般地,为了减少搜索空间,在神经网络中的每一层都是用相同的权重衰减 α \alpha α.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值