李航《统计学习方法》第二版第一章(正则防止过拟合)

本文探讨了L1正则化如何通过其拉普拉斯分布假设实现稀疏性,以及在目标函数优化中的特性。重点讲解了L1正则如何促使某些参数为0,以及在模型复杂度控制和特征选择中的应用。同时,介绍了如何将正则化转化为不等式约束问题,并利用KKT条件来求解。
摘要由CSDN通过智能技术生成

L1正则化有稀疏性,相当于进行特征选择;L2正则化

模型复杂度和参数向量有关,使某些参数为0

加了正则化项,变为结构风险最小化

要使W限制在一个范围内,变为不等式约束问题

 不等式约束问题,利用KKT条件

 加正则化项等价于带约束条件,向量被限制在范围内

 2、为什么L1正则具有稀疏性?可做特征选择

1)从解空间形状看

目标损失函数,等值线图;交点取最佳参数

坐标轴上的点代表某一轴为0,可使某些参数为0

L1正则更容易在顶点取得最优解

2)从贝叶斯最大后验概率估计角度

L1正则中假设参数分布满足拉普拉斯分布

L2正则假设参数分布满足正态分布

 

由于拉普拉斯分布取0的概率大,因此L1具有稀疏性

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值