林轩田《机器学习基石》(十三)—— Hazard of overfitting

上节课讲了如何解决非线性问题:通过特征变换,将非线性模型映射到另一个空间,转换为线性模型,再来进行分类。我们说这样会增加额外的模型复杂度。今天我们说这个额外的复杂度会造成机器学习过拟合(overfitting)现象。今天讲困难怎么产生的以及如何解决它。

一、什么是过拟合?

先从一个例子出发,我们现在要做一个一维的回归分析,资料中有五个点,然后输出一个实数。

资料:x \in \mathbb{R},N = 5

目标函数f:f是一个二次函数(图中为蓝色曲线)

label:y_n=f(x_n)+\text{small noise},由f产生再加一点点很小的噪音

解决方案1:4次多项式做回归分析,即用四次多项式把x空间中的点转换到z空间,再进行线性回归。

我们知道,四次多项式通过五个点,会有一个唯一解。所以E_{in}(g)=0,图中为红色曲线。

我们发现红色曲线和真实的蓝色曲线一点都不像,实际上的E_{out}(g)很大,因为除了那五个点,其他未知点的效果都不是很好。

所以E_{in}(g)很小,而E_{out}(g)很大,这是一种坏的泛化性。

我们回过头来看一下VC曲线:

就像上次说的,如果d_{VC}=1126,那么实际上的E_{out}E_{in}差距越来越大(E_{out}很大,E_{in}很小)

可以看到随着vc维越来越大,E_{in}越来越小,in-sample error曲线一直下降,model complexity曲线就上升;

所以造成E_{out}先下后上。

从最好的vc维d_{VC}^*往右看,E_{in}一直下降,E_{out}一直上升。我们看样子是把fitting做好了,但其实过头了(over)。所以E_{in}变小,E_{out}变高这个过程叫做overfitting,过拟合。(常见,不容易解决)

从最好的vc维d_{VC}^*往左看,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值