机器学习中的正则化方法

参数范数惩罚

L1 L2 regularization

正则化一般具有如下形式:(结构风险最小化)

这里写图片描述

其中,第一项是经验风险,第二项是正则化项,lambda>=0为调整两者之间关系的系数。

正则化项可以取不同的形式,如参数向量w的L2范数:

这里写图片描述

假设以平方差为损失函数,则优化目标为:

minwi=1m(yiwTxi)2+λ||w||22 m i n w ∑ i = 1 m ( y i − w T x i ) 2 + λ | | w | | 2 2

正则化项也可以是参数向量w的L1范数:

这里写图片描述

minwi=1m(yiwTxi)2+λ||w||1 m i n w ∑ i = 1 m ( y i − w T x i ) 2 + λ | | w | | 1

L1范数和L2范数都有助于降低过拟合风险,但前者还会代来一个额外的好处:它比厚泽更易获得“稀疏”(sparse)解,即它求得的w会有更少的非零向量。

这里写图片描述

数据集增强

噪声鲁棒性

Dropout

神经网络

early stopping

提升方法

神经网络

Bagging和其他集成方法

《统计学习方法》 1.5.1 P14

http://charleshm.github.io/2016/03/Regularized-Regression/

《深度学习》 7

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值