学习理论之误差和方差

下面的内容是台湾大学李宏毅老师2016年的机器学习课程第5课 Where does the error come from? 的笔记。

辅助记忆:模型可以看成是范围有限的某个参数空间(二维的参数空间是平面),训练的过程就是在这个空间中寻找一点,简单的模型空间范围有限,复杂的模型空间范围更大,更可能包含我们寻找的目标函数。

一些不成体系的文字

一般地,训练模型在测试数据上的误差主要来源于两个方面,一个是模型的误差(bias),另一个是模型的方差(variance)

在测试数据上,较复杂的模型不一定能够取得很好的性能。

我们训练得到的模型 \(\hat{f}(x)\) 只是对于真实函数 \(f(x)\) 的一种估计(当然实际中并不知道 \(f(x)\) 的表达式)。

我们训练得到的函数只是参数空间中的一个点,举个例子,比如我们的假设集(hypothesis set)为 \(\hat{y}(x) = \omega\,x + b\),那么我们需要确定的参数只有两个,因此我们的参数空间就是某个平面(比如说一个圆),而我们最终求得的函数只是这个平面上的一点,因此训练得到的函数可以看成是参数空间中的一点。

误差(Bias)的结论

越是简单的模型,其误差就越大;而越是复杂的模型,其误差就越小。可以这么解释,简单模型的参数空间的取值范围较小,可能不包括目标函数的参数取值;与之相反,复杂模型的参数空间的取值范围较大,可能会包含目标函数的参数取值。

bias

方差(Variance)的结论

越是简单的模型,其方差就越小,极端的情况就是 \(f(x) = c\) ,此时的方差为 \(0\);与之相反,越是复杂的模型,其方差就越大。可以这么解释,简单模型的参数空间的取值范围很小,因此无论最后取什么值,各个取值之间的“距离”都不会太大;而复杂模型的参数空间的取值范围很大,因此各个取值之间的“距离”是存在比较大的差异的。总而言之,越简单的模型越不易受到训练数据的影响

variance

误差 v.s. 方差

在实际中,最好在两种误差之间进行权衡,使得总的误差最小。

bias_vs_variance

应对方法

对于欠拟合(Underfitting),即误差(Bias)较大的情况:

  • 重新选择一个更加复杂的模型
  • 添加更多的特征

对于过拟合(Overfitting),即方差(Variance)较大的情况:

  • 更多的数据(理想情况)
  • 正则化

转载于:https://www.cnblogs.com/xugenpeng/p/9092694.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值