L1、L2正则化

简介

在之前的博客里介绍了常见的防止过拟合的方法,这次主要就其中的L1、L2正则化方法进行介绍并比较它们的不同。

我们使用L1、L2正则化方法的目的,在于减缓机器学习中的过拟合现象。

为什么它们能减缓过拟合现象呢,由于正则项的加入,使得权重矩阵的值减小,因为它假定一个拥有更小权重矩阵的神经网络将产生更简单的模型,进而在一定程度上能减缓过拟合。

在L1和L2中,所采用的正则化项是不同的。

在L2中,其中λ是正则化参数,这个超参数可以通过优化得到更好的结果。同时L2正则化也被称为权重衰减(weight decay),因为它使权重衰减至0(但不等于0)。

1.png

在L1中,我们惩罚权重的绝对值,这里权重可能会减至0。因此,当我们尝试压缩我们的模型时,使用L1十分有用。在其他方面,我们更倾向于使用L2。

2.png

参考资料

  1. http://xiepeng21.cn/【机器学习】防止过拟合的方法.html 【机器学习】防止过拟合的方法
  2. https://www.analyticsvidhya.com/blog/2018/04/fundamentals-deep-learning-regularization-techniques/ An Overview of Regularization Techniques in Deep Learning (with Python code)
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值