神经网络权重衰退

目的

通过正则化的方式,防止过拟合。

我们总是可以通过去收集更多的训练数据来缓解过拟合。 但这可能成本很高,耗时颇多,或者完全超出我们的控制,因而在短期内不可能做到。 假设我们已经拥有尽可能多的高质量数据,我们便可以将重点放在正则化技术上。

权重衰减(weight decay)是最广泛使用的正则化的技术之一, 它通常也被称为𝐿2L2_正则化_

使用均方范数作为硬性限制
  • 通过限制参数值的选择范围来控制模型容量
    min ⁡ l ( w , b )    s u b j e c t    t o   ∥ w ∥ 2 ⩽ θ \min l(w,b)\ \ subject\ \ to\ \|w\|^2 \leqslant \theta minl(w,b)  subj

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值