Bias and Variance

一个模型的预测误差可以分别两个部分Bias和Variance:

Error=Bias^2+Variance

Bias刻画的是模型输出与目标输出的偏差。偏差越小,准确率越高

Variance刻画的是模型的稳定性,不同训练集训练得到的模型的差异。方差越小,模型越稳定。

Bias和Variance的图谱如下


红色圆心为目标输出,蓝色点为模型输出。


Bias和Variance对模型的预测误差和复杂度关系如下:


高bias偏差,说明模型错误率比较高,准确率低(可相应画出关于准确率的图)。

低Variance方差,说明两条错误曲线或准确率曲线比较接近。

模型越复杂,训练错误率低,但测试集的错误率往往会比较高(过拟合)。方差较大,偏差小。

模型较简单,则模型比较generation,方差比较小,但bias大(欠拟合)


参考文献2中指出最终的错误率由三个部分组成,第三项是由噪声引起的,任何模型无法消除,故不考虑。所以要降低模型的最终错误率不能单靠降低Bias或Variance。而是在取得折中(trade-off)


思考1:

https://www.zhihu.com/question/27068705/answer/35151681中提出

在训练数据上进行交叉验证(Cross-Validation),一种方法叫做K-fold Cross Validation (K折交叉验证)。

当K值大的时候, 我们会有更少的Bias, 更多的Variance。
当K值小的时候, 我们会有更多的Bias, 更少的Variance。

思考2:

参考文献2举的KNN的例子。

参考:

1. http://blog.csdn.net/ywl22/article/details/8606166

2. http://scott.fortmann-roe.com/docs/BiasVariance.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值