03网络正则化

L2正则化

通过惩罚目标函数中所有参数的平方,即对网络中每个权重w,向目标函数中增加一个 1 2 λ w 2 \frac{1}{2}\lambda {{w}^{2}} 21λw2,其中 λ \lambda λ为正则化强度.

  • L2正则化可以理解为它对于大数值的权重向量进行严厉惩罚,倾向于更加分散的权重向量.因为较大的权重数值会被减小,而一些原来为0的数值会增大,即不接近于0,即更为分散.
  • 这使得网络倾向于使用所有输入特征,而不是严重依赖于特征中某些小部分特征.
  • 在梯度下降和参数更新的时候,使用L2正则化意味着所有的权重w += -lambda*W向着0线性下降.

L1正则化

对于每个 w w w,我们向目标函数增加一个 λ ∣ w ∣ \lambda \left| w \right| λw.

  • L1正则化会让权重向量在最优化过程中变得稀疏(即非常接近于0).
  • 使用L1正则化的神经元最后使用的是它们最重要的输入数据的稀疏子集,对于噪声输入则几乎一成不变.

L1、L2正则化组合

L1、L2正则化也可以进行组合,叫做Elastic net regularization. λ 1 ∣ w ∣ + λ 2 w 2 {{\lambda }_{1}}\left| w \right|+{{\lambda }_{2}}{{w}^{2}} λ1w+λ2w2

最大范式约束

image.png

随机失活

正向随机失活

image.png

image.png

反向随机失活

image.png

前向传播中的噪声

image.png

实践

通过交叉验证获得一个全局使用L2正则化强度是比较常见的.在使用L2正则化的同时在所有层后面使用随机失活也很常见.p值一般默认设为0.5,也可能在验证集上调参.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值