Bias 和 Variance的理解

bias-variance tradeoffs是有监督学习面临的一个重要的问题。我们希望达到的最佳的状态就是low variance, low bias。 一旦出现过拟合现象, 就容易造成low bias, high variance的线性, 欠拟合是high bias, low variance。

对于线性模型中, 我们假设样本取自的分布为:

好了, 我们根据这就可以求出最佳的hyposis, 并可以使用这个hyposis进行预测:

我们的loss function 如下:

对上述值取期望, 就是expected loss function, 如下:

注意, 上述的式子的第二项与是独立的。 这一项是有data内部的噪声引起的。 并且代表着可以achievable的最小的loss了, 即不能比这个值还小了。 第一项是依赖于我们关于预测函数的具体选取了。 我们的目的就是找到一个使得这一项达到最小了。 因为这一项总是非负数, 所以我们希望这一项能够达到最小, 即0。 如果我们有unlimited amount of data的话, 以及具有unlimited computational resources, 那么我们原则上是可以找到这个回归函数的。 但是实际中, 我们只有一个有限大小的训练数据集D(假如样本的数目为N), 所以我们根本无法准确的求得

对于一个数据集D,我们使用学习算法能够获得一个对应的. 注意当我们的训练样本集D发生变化的时候, 我们可能得到一个不同的预测函数。

所以我们的预测函数是依赖于我们的训练样本集的。 于是E[L]的第一项的积分对象如下:

进行如下变化:

 

于是, 上述两边去期望:

上述第一项称为squared bias, 代表着对于所有可能的训练data sets的一个平均预测误差(较之于desired regression funtion), 第二项被称为variance, 计算的是对于每一个单独的data set, 得到的偏离他们自身的均值的程度。 也就是说第二项是衡量函数对一个particular choice of data set的灵敏度(sentivitity)。

最终, 我们吧我们的期望二次缺损表示成如下的表达式:

其中:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值