深度学习——权重衰退L2正则化(笔记)

一 权重衰退—L2正则化:抵消过拟合的方法。防止损失函数最优导致过拟合,把损失函数最优点拉一拉。

1使用均方范数作为硬性限制

①通过限制参数值的范围控制模型容量

在优化loss的时候上限制。因为如果训练数据差异过大,w的差异也很大。来限制w,也就限制了过拟合。

② 通常不限制偏移

③ 小的 θ意味着更强的正则项

[控制权重矩阵范围的值,可以减少一些特征的权重,甚至一些特征权重为0,这样模型会变得简单,减轻过拟合]

2.使用均方范数作为柔性限制【罚】

①对于每个θ可以找到λ使目标损失函数等价于:

 

λ控制正则项的重要程度

λ=0,无作用,也就是θ无穷大。

增加λ-> ,损失函数大,w*->0。

可以控制模型复杂度低。

 3.演示一个最优解【没有看懂】

 

 

绿色:损失函数取值范围,圈越大,值越大

黄色:惩罚项的取值范围,圈越大,值越大。

绿色中心点的梯度接近于0,黄色函数梯度更高,参数更新时往黄色函数方向更新。

模型复杂程度变低了。

4.参数更新法则

①计算梯度

 ②带入参数更新的原公式:

ηλ<1 ,深度学习中称为权重衰退。

 

【总结】

①权重衰退通过L2正则项使得模型参数不会太大,控制模型复杂程度。

②正则项权重是控制模型复杂度的超参数。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值