1.4 模型评估与模型选择


前言:

项目模型训练因为数据集的脚本问题陷入停滞,闲着无聊先推进一下机器学习前修课程理论部分。 


1.4 模型评估与模型选择

1.4.1 训练误平与测试误平

统计学习的目的是使学到的模型不仅对已知数据而且对未知数据都能有很好的预测能力。不同的学习方法会给出不同的模型。当损失函数给定时,基于损失函数的模型的训练误平 (training error) 和模型的测试误平 (test error) 就自然成为学习方法评估的标准,注意,统计学习方法具体采用的损失函数未必是评估时使用的损失函数。当然,让两者一致是比较理想的。

假设学习到的模型是式式 Y = f(X),训练误平是模型 Y = f(X) 关于训练数据集的平均损失:

其中, N 是训练样本容量。

测试误平是模型 Y = f(X) 关于测试数据集的平均损失:

其中, N' 是测试样本容量。

例如,当损失函数是 0-1 损失时,测试误平就变成了常见的测试数据集上的误平率 (error rate):

这里 I 是指示函数 (indicator function),即 y_i \neq f(x_i)时为 1,否则为 0。相应地,常见的测试数据集上的准确率 (accuracy) 为:

显然,

训练误平的大小,对判断给定的问题是不是一个容易学习的问题是有意义的,但本质上不重要。测试误平反映了学习方法对未知的测试数据集的预测能力,是学习中的重要概念。显然,给定两种学习方法,测试误平小的方法具有更好的预测能力,是更有效的方法。通常将学习方法对未知数据的预测能力称为泛化能力 (generalization ability),这个问题将在 1.6 节继续论述。

1.4.2 过拟合与模型选择

当假设空间含有不同复杂度 (例如,不同的参数个数) 的模型时,就要面临模型选择 (model selection) 的问题。我们希望选择或学习一个合适的模型。如果在假设空间中存在“真”模型,那么所选择的模型应该逻进真模型。具体地,所选择的模型要与真模型的参数个数相同,所选模型的参数向量与真模型的参数向量相近。

如果一命追求提高对训练数据的预测能力,所选模型的复杂度则常带会比真模型更高,这种现象称为过拟合 (overfitting)。过拟合是指学习时选择的模型所包含的参数过多,以致于出现这一模型对已知数据预测得很好,但对未知数据预测得很差的现象,可以说模型选择的目的是避免过拟合并提高模型的预测能力。

下面,以多项式函数拟合问题为例,说明过拟合与模型选择。这是一个回应问题。

例 1.1 假设给定一个训练数据集:

其中, x ∈ ℝ 是输入 x 的观测值, y ∈ ℝ 是相应的输出 y 的观测值, i = 1, 2, …, N。多项式函数拟合的任务是假设给定数据由 M 次多项式函数生成,选择最有可能产生这些数据的 M 次多项式函数,即在 M 次多项式函数中选择一个对已知数据以及未知数据都有很好预测能力的函数。

假设给定如图 1.2 所示的10个数据点,用0–9 次多项式函数对数据进行拟合,图中画出了需要用多项式函数曲线拟合的数据。

设 M 次多项式为:

式中, x 是单变量输入, w_0, w_1, …, w_M 是 M + 1 个参数。

解决这个问题的方法可以是这样的。首先确定模型的复杂度,即确定多项式的次数;然后在给定的模型复杂度下,按照经验风险最小化的策略,求解参数,即多项式的系数,具体地,求以下经验风险最小化:

图 1.2 给出了 M = 0, M = 1, M = 3 及 M = 9 时多项式函数拟合的情况,如果 M = 0,多项式曲线是一个常数,数据拟合效果很差。如果 M = 1,多项式曲线是一条直线,数据拟合效果也很差。相反,如果 M = 9,多项式曲线通过每个数据点,训练误平为 0。从对给定训练数据拟合的角度来说,效果是最好的,但是,因为训练数据本身存在噪音,这种拟合曲线对未知数据的预测能力往往并不是最好的,在实际学习中并不可取。这时过拟合现象就会发生,这就是说,模型选择时,不仅要考虑对已知数据的预测能力,而且还要考虑对未知数据的预测能力。当 M = 3 时,多项式曲线对训练数据拟合效果足够好,模型也比较简单,是一个较好的选择。

在多项式函数拟合中可以看到,随着多项式次数 (模型复杂度) 的增加,训练误平会减少,直至趋向于 0,但是测试误平却不如此,它会随着多项式次数 (模型复杂度) 的增加先减少而后增大。而最终的目的是使测试误平达到最小。这样在多项式函数拟合中,就要选择合适的多项式次数,以达到这一目的。这一结论对一般的模型选择也是成立的。

图 1.3 描述了训练误平和测试误平与模型复杂度之间的关系,当模型的复杂度增大时,训练误平会逐渐减少并趋向于 0;而测试误平会先减少,达到最小值后又增大。当选择的模型复杂度过大时,过拟合现象就会发生。这样,在学习时就要防止过拟合,进行最优的模型选择,即选择复杂度适当的模型,以达到使测试误平最小的学习目的。下面介绍两种常用的模型选择方法:正则化与交叉验证。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

夏驰和徐策

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值