通俗易懂方差(Variance)和偏差(Bias)

看了沐神的讲解,恍然大悟,b站可以不刷,但沐神一定要看。


在统计模型中,通过方差和偏差来衡量一个模型。

1 方差和偏差的概念

偏差(Bias):预测值和真实值之间的误差
方差(Variance):预测值之间的离散程度,也就是离其期望值的距离。方差越大,数据的分布越分散。

在这里插入图片描述

2 均方误差(Mean-Square error,MSE)

在统计模型评价中时,评价一个点估计的坏时,通常使用点估计 y ^ \hat{y} y^和参数真值 y y y的距离,最常用的函数是距离的平方,由于估计量 y ^ \hat{y} y^具有随机性,每次采样的点都不一样,所以可以对该函数求期望,即表示在不同的采样点下具有的误差,这就是下式给出的均方误差:

以上就得到了均方差是由偏差、方差和数据本身的噪音的组合。

3 偏差—方差均衡(Tradeoff)

对于样本数据,如果选择的模型过于简单,学不到很多信息,此时模型的预测值和真实值误差很大,也就是偏差很大,随着模型的复杂度提升,学到的信息也越来越多,使得偏差逐渐降低。

同样的,随着模型复杂的提升,数据相对模型而言变得简单,使得模型学到了更多的数据噪音,方差也就越来越大。

泛 化 误 差 = 数 据 本 身 噪 声 + 偏 差 + 方 差 \color{red}泛化误差=数据本身噪声+偏差+方差 =++

如下图蓝线,所以需要在中间位置找到一个合适的模型复杂度,使得泛化误差尽可能地小。过于简单导致欠拟合,过于复杂导致过拟合。

这也就是我们常说的训练误差随着模型复杂度地提升而降低,而泛化误差会逐渐增大。训练误差更多和偏差相关,偏差越小,模型就越能拟合训练数据。

3 降低偏差和方差

对于偏差,偏差过高是由于模型地复杂度不够,所以通过增加模型复杂度来降低bias,比如在神经网络中,增加模型层数和隐藏神经元个数。也可以他通过集成学习地方法来,比如Boosting。关于集成学习的文章

对于方差,方差过高是由于模型过于复杂,通过降低模型地复杂度来实现。比如加入正则来限制参数的学习范围,使得方差降低。集中方法中的Bagging也可以降低方差。

对于 σ 2 \sigma^2 σ2,该项主要是由于数据本身的噪声产生,虽然在统计学里面,该项不可降低。但在实际中,可以通过改善数据来降低噪音。

在这里插入图片描述
从方差和偏差角度解读Boosting和Bagging
请添加图片描述

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Weiyaner

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值