机器学习笔记(三)——正则化最小二乘法

一. 模型的泛化与过拟合

在上一节中,我们的预测函数为:

f(x;ω)=ωTx

其中,
x=[x1],ω=[ω1ω0]

上述称为线性模型,我们也可以将 x 扩展为:
x=xnx2x1,ω=ωnω2ω1ω0

那么预测函数 f(x;w) 就变为一个非线性函数。预测函数的次数越高,越能准确地拟合训练数据。在某些情况下,高次预测函数会拟合大部分或全部训练数据,这时,我们就说这个模型过拟合。因为这种过度拟合训练数据的模型对未知数据的预测就不是那么准确了,它对训练数据外的其它数据是相当敏感的,也就是说它不够泛化。所以我们需要一个最好的模型,也就是说我们需要的模型误差要最小,而且还有一定的泛化能力。

二. 正则化最小二乘法

要避免模型过拟合,我们可以选择部分数据进行模型的训练,也可以利用正则化方法。一般来讲,正则化,有L1正则和L2正则,它们都是基于 Lp 范数的:

Lp=(in|xi|p)1p

这里我们选择模型的复杂度为L2正则: niω2i ,写为向量形式为: ωTω 关于正则化的详细内容,可以参考:
http://blog.csdn.net/heyongluoyao8/article/details/49429629

那么我们新的损失函数可以写为:

L=L+λωTω=1N(ωTXTXω2ωTXTy+yTy)+λωTω

同样的对上式求偏导数:
Lω=1N(2XTXω2XTy)+2λω=0(XTX+NλI)ω=XTyω=(XTX+NλI)1XTy

选择 λ 的值就是选择多项式拟合函数时,折中过拟合/泛化的过程。值太小,过拟合;值太大,不利于数据的逼近。至于 λ 的选择,可以采用交叉验证获得最好预测性能的 λ

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值