跟李沐学AI-动手学深度学习-权重衰退+Dropout

本文介绍了两种常用的正则化技术:权重衰退和丢弃法。权重衰退通过L2正则项限制参数的大小,防止过拟合,而丢弃法则在训练过程中随机丢弃神经元,增加模型的鲁棒性。丢弃法在某些情况下可能优于权重衰退。这两种方法都是控制模型复杂度的有效手段,调整相应的超参数(如λ和丢弃概率)可以影响模型的性能。
摘要由CSDN通过智能技术生成

目录

权重衰退

使用均方范数作为硬性限制

使用均方范数作为柔性限制

 总结

 Dropout(丢弃法)

动机

无偏差的加入噪音

 使用丢弃法

 推理中的丢弃法

总结


权重衰退

是最广泛使用的正则化的技术之一。

使用均方范数作为硬性限制

通过限制参数值的选择范围来控制模型容量。

 通常不限制偏移b(因为限制与不限制的差别不大)。

小的θ意味着更强的正则项。

使用均方范数作为柔性限制

对于每个θ,都可以找到λ使得之前的目标函数等价于下面

可以通过拉格朗日乘子来证明。

超参数λ控制了正则项的重要程度。

λ=0:无作用。

λ->是⚮,w*->0。

参数更新法则

  • 计算梯度

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值