模型选择、欠拟合和过拟合
训练误差(training error):指模型在训练数据集上表现出的误差。
泛化误差(generalization error):指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。
机器学习模型应关注降低泛化误差。
模型选择
1.验证数据集
我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。
2.K折交叉验证
把原始训练数据集分割成K个不重合的子数据集,然后我们做K次模型训练和验证。每一次,我们使用一个子数据集验证模型,并使用其他K-1个子数据集来训练模型。在这K次训练和验证中,每次用来验证模型的子数据集都不同。最后,我们对这K次训练误差和验证误差分别求平均。
过拟合和欠拟合
欠拟合:模型无法得到较低的训练误差。
过拟合:模型的训练误差远小于他在测试数据集上的误差。
1.模型复杂度
用多项式函数拟合为例,多项式函数拟合的目标是找一个K阶多项式函数来近似y,在上式中,w是权重,b是偏差,与线性回归相同,多项式函数拟合也使用平方损失函数。一阶多项式函数拟合又叫线性函数拟合
2.训练数据集大小
一般来说,如果训练数据集中样本数过少,特别是比模型参数数量(按元素计)更少时,过拟合更容易发生。此外,泛化误差不会随训练数据集里样本数量增加而增大。因此,在计算资源允许的范围之内,我们通常希望训练数据集大一些,特别是在模型复杂度较高时,例如层数较多的深度学习模型。