机器学习基础学习笔记(三)过拟合、欠拟合

以下内容均为https//nndl.github.io/nndl-book.pdf的学习笔记。
上节说了经验风险最小化准则(ERM),过拟合与欠拟合理论均与其有关。
所得:我们可以将机器学习看作一个从有限、高维、有噪声的数据上得到更一般性规律的泛化问题
在这里插入图片描述

过拟合(overfitting)

1.定义

在这里插入图片描述
简单说:过拟合表现在对训练数据依赖产生过度自信的性能,但对于测试集则能力不足,是”纸上谈兵“。

2.理论基础

根据大数定理可知,当训练集大小|𝒟| 趋向于无穷大时,经验风险就趋向于期望风险
1)真实训练样本子集较小,达不到无穷大要求。
2)含有噪声,不能真实的反映原数据真实分布。
综上,.经验风险最小化原则很容易导致模型在训练集上错误率很低,但是在未知数据上错误率很高。

3.过拟合产生的原因以及解决方法

1)原因
由于训练数据少和包含噪声、模型能力强。
2)解决方法

结构风险最小化(Structure Risk Minimization,SRM)准则:在经验风险最小化(ERM)的基础上再引入参数的正则化(Regularization)来限制模型能力,使其不要过度地最小化经验风险的准则。
在这里插入图片描述
其中‖𝜃‖ 是ℓ2 范数的正则化项,用来减少参数空间避免过拟合𝜆 用来控制正则
化的强度.

正则化也可以使用其他函数,比如ℓ1 范数.ℓ1 范数的引入通常会使得参数有一定稀疏性
本质:从贝叶斯学习的角度来讲,正则化是引入了参数的先验分布,使其不完全依赖训练数据。

欠拟合-Underfitting

1.定义

模型不能很好地拟合训练数据,在训练集上的错误率比较高.

2.原因qian

模型能力不足。

过拟合与欠拟合所思考到的机器学习本质

给定一个训练集,机器学习的目标是从假设空间中找到一个泛化错误较低的“理想”模型,以便更好地对未知的样本进行预测,特别是不在训练集中出现的样本.
因此,我们可以将机器学习看作一个从有限、高维、有噪声的数据上得到更一般性规律的泛化问题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值