正则化-L0,L1,L2

本文详细介绍了L0、L1、L2正则化的概念、作用和原理,揭示了它们在防止过拟合、提高模型泛化能力方面的差异。L1正则化倾向于产生稀疏模型,适合特征选择;L2正则化则使参数尽量小,但不会产生稀疏性。正则化通过结构风险最小化策略平衡经验风险和模型复杂度。
摘要由CSDN通过智能技术生成


1、什么是L0、L1、L2正则化;

2、正则化的作用;

3、正则化的原理;

4、L1,L2正则化有什么不同;

 

1、什么是L0、L1、L2正则化;

L0正则化

L0范数指的是向量中非零元素的个数;

L0正则化就是限制非零元素的个数在一定的范围,这很明显会带来稀疏。一般而言,用L0范数实现稀疏是一个NP-hard问题,因此人们一般使用L1正则化来对模型进行稀疏约束。

L1正则项

 $L= L_{0} +\alpha \sum_{j=0}^{M}\left | \omega _{j} \right |$

 L2正则项

$L= L_{0} +\alpha \sum_{j=0}^{M}\omega _{j}^{2}$

 

2、正则化的作用;

防止过拟合,提高泛化能力;

1)稀疏性,减少模型参数个数,让模型参数变成0,相当于对模型进行一次特征选择;

2)让模型参数变小,让模型参数在整个模型中的作用变小;

深度学习中可通过Dropout 和 Batch Normalization;

过拟合的原因就是模型训练时过多得考虑训练数据的情况(过犹不及)导致模型过于复杂,这就说明模型的参数过多,导致模型的泛化能力不强。

 

3、正则化的原理;

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值