L1和L2正则化

正则化是解决机器学习中维度灾难的有效方法,主要分为L1正则化和L2正则化。L1正则化通过L1范数惩罚,倾向于产生稀疏模型,使部分权重系数直接为0。而L2正则化利用L2范数,使权重系数接近于0但不为0,从而降低特征的影响。两种正则化在优化目标函数时有不同的等高线特性,影响模型的复杂度和解释性。
摘要由CSDN通过智能技术生成

正则化的作用

我们在机器学习中,常常会使用正则化来缓解维度灾难的问题。根据选择的惩罚函数不同,效果也不同,我们常用的处罚函数有L1范数和L2范数,分别叫做L1正则化和L2正则化。

L1正则化

选择L1范数进行惩罚:
在这里插入图片描述
我们改写为: J = J 0 + α ∑ w ∣ w ∣ J=J_0+α∑_w∣w∣ J=J0+αww
我们能看到,函数由一个二次函数 J 0 J_0 J0 和一个绝对值函数构成,我们分别对其绘制等高线:
在这里插入图片描述
我们很容易看到,在L1惩罚函数的等高线上, J 0 J_0 J0函数在坐标轴上的(0,w2)达到了最小值。所以说L1正则化会使得许多权值等于0(因为角就在坐标轴上),所以就可以产生稀疏模型。

L2正则化

选择L2范数进行惩罚:
在这里插入图片描述
我们改写为: J = J 0 + α ∑ w w 2 J=J_0+α∑_w w^2 J=J0+αww2
我们能看到,函数由一个二次函数 J 0 J_0 J0 和另一个二次函数构成,我们分别对其绘制等高线:
在这里插入图片描述
我们可以看到,在L2惩罚函数的相切处, J 0 J_0 J0函数取得最小值。此时 w 1 w_1 w1很小, w 2 w_2 w2比较大。

总结

L1正则化的作用是使得大部分系数直接为0,构建稀疏模型
L2正则化的作用是使得某些系数接近于0,降低影响。

参考:L1、L2正则化整理
拉格朗日带约束优化问题
L1、L2正则化作用和区别

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值