L1/L2正则化

概述
  • 在模型训练可能遇到训练集错误率较小,但是验证集和测试集中错误率较大的问题,出现这种情况的时候,说明模型可能出现了过拟合问题,为了解决过拟合首先会想到正则化,当然也可以增加训练数据集。
为什么正则化可以解决过拟合
  • L2正则化
    首先定义损失函数
    在这里插入图片描述
    在这里插入图片描述
    反向传播求得梯度为:
    在这里插入图片描述
    更新梯度:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    从结果可知:
    实际上相当于给权重矩阵W乘以了(1- lamba/m) ,倍的权重系数, 该系数小于1 因此L2被称为权重衰减( lamba称为正则化超参数)

    正则化参数设置的足够大的情况下,为了使损失函数最小化,权重矩阵 W 就会被设置为接近于 0 的值,对于神经网络相当于消除了很多神经元的影响,这样比较大的神经网络就会变成一个较小的网络,使网络不在变得复杂,从而解决过拟合的问题

  • L1正则化
    在这里插入图片描述
    反向传播求得梯度为:
    在这里插入图片描述
    更新梯度:
    在这里插入图片描述
    从结果可知:
    L1 权重最终减少的是一个常数,使得L1正则化最后得到 w 向量中可能将存在大量的 0,使模型变得稀疏化

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值