pytorch框架学习(15)——正则化

1. 正则化与偏差-方差分解

  • Regularization:减小方差的策略(防止过拟合)

  • 误差可分解为:偏差,方差与噪声之和。即误差 = 偏差 + 方差 + 噪声

  • 偏差:度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力

  • 方差:度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响(验证集与训练集之间的差异)

  • 噪声:表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界

在这里插入图片描述

  • Regularization
    在这里插入图片描述
  • L1正则项: ∑ i N ∣ w i ∣ \sum^{N}_{i} |w_i| iNwi
  • L2正则项: ∑ i N w i 2 \sum^{N}_{i} w_i^2 iNwi2

2. pytorch中的L2正则项——weight decay

  • L2 Regularization = weight decay(权值衰减)
    在这里插入图片描述
    加入L2正则项之后,相当于 w i w_i wi与一个大于0小于1的数相乘,相当于权值衰减

3. Dropout

  • Dropout:随机失活
    • 随机:dropout probability
    • 失活:weight = 0

让神经元有一定的概率失去活性,具有了鲁棒的特性,减轻过度的依赖,缓解过拟合。
在这里插入图片描述
需要注意的地方:

  • 数据尺度变化:测试时,所有权重乘以1-drop_prob(因为在训练过程中通过dropout随机舍弃了部分数据,为了保证测试时尺度相同,因此在测试时所有的权重乘以一个系数)

  • nn.Dropout

    • 功能:Dropout层
    • 参数:P:被舍弃概率,失活概率,默认为0.5
    • 实现细节:训练时权重除以1-p
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Aidanmomo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值