统计学习中,有一条天下没有免费的午餐定理:没有哪一个方法可以对任何数据集,都胜过其他任何方法。所以,在具体实践中,选择最好的方法,成为了一个具有挑战性的问题。但是要如何比较模型的好坏呢?以下就介绍了一些评估模型好坏的概念。
MSE
MSE是均方误差(mean squared error)的缩写,用来刻画模型拟合程度的好坏,多用于线性回归模型。
M S E = 1 n ∑ i = 1 n ( y i − f ^ ( x i ) ) 2 MSE=\frac{1}{n}\sum_{i=1}^n(y_i-\hat{f}(x_i))^2 MSE=n1i=1∑n(yi−f^(xi))2
MSE分为训练MSE(training MSE)和测试MSE(test MSE)。顾名思义,训练MSE,是用训练集计算产生的MSE,测试MSE,是用测试集计算产生的MSE。
通常,我们更希望获得较小的测试MSE,而不是较小的训练MSE,因为我们希望该模型在未被检测到的数据上,也能产生好的效果。所以,通常我们更青睐于使得测试MSE最小的模型。
需要注意的是,训练MSE和测试MSE看似关系密切,但其实不然:较小的训练MSE并不能保证较小的测试MSE。所以,那些训练MSE较小的模型,未必就有较小的测试MSE。
在实践中,训练MSE是容易计算的,而测试MSE往往比较困难计算。交叉验证(cross-validation)就是一类用来评估测试MSE的方法。
偏差 VS 方差
数学上可以证明,测试MSE的方差,可以由如下三部分组成:
E ( y 0 − f ^ ( x 0 ) ) 2 = V a r ( f ^ ( x