模型选择之:偏差Bias与方差Variance

小结:

误差主要包含两部分,Bias与Variance。

以线性回归举例,回归函数可以表示为:Y=f(x) + \epsilon = \beta _{0}+\beta _{1}X_{1}+\beta _{2}X_{2}+......+\epsilon

其中误差\epsilon符合正态分布:N(0,\sigma _{\epsilon }^{2})

经过训练数据training以后得到的模型记作\hat{f(x)}, 由于挑选训练数据的随机性,导致最终得到的模型也有一定的随机性,比如用数据集A训练得到的模型和用数据集B训练得到的模型参数可能是不一样的。

那么通过模型\hat{f(x)}得到的预测值与真实值Y之间的误差用均方误差可以表示为:

Err(x) = E[(\hat{f(x)}-Y)^{2}],将Y=f(x) + \epsilon 代入,得到:

Err(x)=(E[\hat{f(x)}]-f(x))^{2}+E[(\hat{f(x)}-E[\hat{f(x)}])^{2}]+\sigma _{e }^{2}

              =Bias^{2}+Variance+Noise

Bias表示训练出来的模型与理想模型之间的误差,Variance表示训练出来的模型本身的分散程度。

用图表示为:

              

图中的红心可以表示为待预测数据的真实值。各蓝点可表示为通过多组随机训练数据集得到的模型分别给出的预测值。

对于左上角的图,理想情况下,偏差与方差都很小,经过多组随机挑选的训练数据得到的模型,对于待预测数据给出的预测值都与真实值接近,即有很好的泛化能力。

对于右上角的图,偏差(即误差均值)小,方差大,说明存在过拟合,图中的蓝点有的落在红心,有的与红心距离很远,那么对于未知数据来说,可能就会预测的不准,也就是说泛化能力比较差。

偏差与方差存在此消彼长的关系,随着模型复杂程度的增加,偏差在减小,方差在增大,最终会出现过拟合,因此需要找到一个平衡点。

 

                          

参考文献中指出,最佳平衡点出现在两条曲线倾斜程度相同的点,即:

\frac{dBias}{dComplexity}=-\frac{dVariance}{dComplexity}

 

 

参考:

http://scott.fortmann-roe.com/docs/BiasVariance.html

 

 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值