机器学习系列(三)——误差(error),偏差(bias),方差(variance)

训练机器学习模型时,我们希望得到一个泛化性能优异的模型。在上一篇博客回归模型中,当我们采用多项式回归,并不断增加多项式的次数时,模型越来越复杂,但是在测试集上的误差并没有逐步降低。
这里写图片描述

这表明一个复杂的模型并不总是能在测试集上表现出更好的性能,那么误差来自哪里呢?

泛化误差(error)

我们知道,算法在不同训练集上学得的结果很可能不同,即便这些训练集是来自于同一个分布。以回归任务为例,对测试样本 x x x,令 y D y_D yD x x x在数据集上的标记, y y y x x x的真实标记,由于噪声的存在,有可能 y D ≠ y y_D\neq y yD=y f ( x ; D ) f(x;D) f(x;D)为在训练集 D D D上学得函数 f f f x x x的预测输出。因此,算法的期望预测(在不同训练集上学得的模型对样本 x x x的结果的预测值的均值)可以表示为
f ˉ ( x ) = E D [ f ( x ; D ) ] \bar{f}(x)=\mathbb{E}_D[f(x;D)] fˉ(x)=ED[f(x;D)]

不同训练集学得的函数 f f f的预测输出的方差(variance)为
v a r ( x ) = E D [ ( f ( x ; D ) − f ˉ ( x ) ) 2 ] var(x)=\mathbb{E}_D[(f(x;D)-\bar{f}(x))^2] var(x)=ED[(f(x;D)fˉ(x))2]

期望输出与真实标记之间的差距称为偏差(bias),即
b i a s 2 ( x ) = ( f ˉ ( x ) − y ) 2 {bias}^2(x)=(\bar{f}(x)-y)^2 bias2(x)=(fˉ(x)y)2

噪声为
ε 2 = E D [ ( y D − y ) 2 ] \varepsilon^2=\mathbb{E}_D[(y_D-y)^2] ε2=ED[(yDy)2]

为方便讨论,假定噪声期望为零,即 E D [ y D − y ] = 0 \mathbb{E}_D[y_D-y]=0 ED[yDy]=0。算法的期望泛化误差(也采用平方误差度量)为
E ( f ; D ) = E D [ ( f ( x ; D ) − y D ) 2 ] = E D [ ( f ( x ; D ) − f ˉ ( x ) + f ˉ ( x ) − y D ) 2 ] = E D [ ( f ( x ; D ) − f ˉ ( x ) ) 2 ] + E D [ ( f ˉ ( x ) − y D ) 2 ] + E D [ 2 ( f ( x ; D ) − f ˉ ( x ) ) ( f ˉ ( x ) − y D ) ] = E D [ ( f ( x ; D ) − f ˉ ( x ) ) 2 ] + E D [ ( f ˉ ( x ) − y D ) 2 ] = E D [ ( f ( x ; D ) − f ˉ ( x ) ) 2 ] + E D [ ( f ˉ ( x ) − y + y − y D ) 2 ] = E D [ ( f ( x ; D ) − f ˉ ( x ) ) 2 ] + E D [ ( f ˉ ( x ) − y ) 2 ] + E D [ ( y − y D ) 2 ] + E D [ 2 ( f ˉ ( x ) − y ) ( y − y D ) ] = E D [ ( f ( x ; D ) − f ˉ ( x ) ) 2 ] + ( f ˉ ( x ) − y ) 2 + E D [ ( y − y D ) 2 ] \begin{aligned} E(f;D) &= \mathbb{E}_D[(f(x;D)-y_D)^2]\\ &= \mathbb{E}_D[(f(x;D)-\bar{f}(x)+\bar{f}(x)-y_D)^2]\\ &= \mathbb{E}_D[(f(x;D)-\bar{f}(x))^2]+\mathbb{E}_D[(\bar{f}(x)-y_D)^2]+\color{red}{\mathbb{E}_D[2(f(x;D)-\bar{f}(x))(\bar{f}(x)-y_D)]}\\ &= \mathbb{E}_D[(f(x;D)-\bar{f}(x))^2]+\mathbb{E}_D[(\bar{f}(x)-y_D)^2]\\ &= \mathbb{E}_D[(f(x;D)-\bar{f}(x))^2]+\mathbb{E}_D[(\bar{f}(x)-y+y-y_D)^2]\\ &= \mathbb{E}_D[(f(x;D)-\bar{f}(x))^2]+\mathbb{E}_D[(\bar{f}(x)-y)^2]+\mathbb{E}_D[(y-y_D)^2]+\color{red}{\mathbb{E}_D[2(\bar{f}(x)-y)(y-y_D)]}\\ &= \mathbb{E}_D[(f(x;D)-\bar{f}(x))^2]+(\bar{f}(x)-y)^2+\mathbb{E}_D[(y-y_D)^2] \end{aligned} E(f;D)=ED[(f(x;D)yD)2]=ED[(f(x;D)fˉ(x)+fˉ(x)yD)2]=ED[(f(x;D)fˉ(x))2]+ED[(fˉ(x)yD)2]+ED[2(f(x;D)fˉ(x))(fˉ(x)yD)]=ED[(f(x;D)fˉ(x))2]+ED[(fˉ(x)yD)2]=ED[(f(x;D)fˉ(x))2]+ED[(fˉ(x)y+yyD)2]=ED[(f(x;D)fˉ(x))2]+ED[(fˉ(x)y)2]+ED[(yyD)2]+ED[2(fˉ(x)y)(yyD)]=ED[(f(x;D)fˉ(x))2]+(fˉ(x)y)2+ED[(yyD)2]

式中,第一个加红公式等于0,因为 f ˉ ( x ) − y D \bar{f}(x)-y_D fˉ(x)yD是一个标量,而根据期望预测公式 f ˉ ( x ) = E D [ f ( x ; D ) ] \bar{f}(x)=\mathbb{E}_D[f(x;D)] fˉ(x)=ED[f(x;D)],我们可以得到 E D [ ( f ( x ; D ) − f ˉ ( x ) ) ] = 0 \mathbb{E}_D[(f(x;D)-\bar{f}(x))]=0 ED[(f(x;D)fˉ(x))]=0,所以整个加红式子的值为0。同理第二个加红公式等于0,因为噪声期望为0。于是
E ( f ; D ) = b i a s 2 ( x ) + v a r ( x ) + ε 2 E(f;D)={bias}^2(x)+var(x)+\varepsilon^2 E(f;D)=bias2(x)+var(x)+ε2

也就是说,泛化误差可分解为偏差、方差与噪声之和。噪声无法人为控制,所以通常我们认为
E ( f ; D ) = b i a s 2 ( x ) + v a r ( x ) E(f;D)={bias}^2(x)+var(x) E(f;D)=bias2(x)+var(x)

现在知道了泛化误差来自哪,就需要进行针对性控制。

偏差(bias)与方差(variance)

根据上面的定义,偏差(bias)反映了模型在样本上的期望输出与真实标记之间的差距,即模型本身的精准度,反映的是模型本身的拟合能力。方差(variance)反映了模型在不同训练数据集下学得的函数的输出与期望输出之间的误差,即模型的稳定性,反应的是模型的波动情况。下面用打靶的例子直观展示了偏差和方差。
这里写图片描述

图中红色的靶心表示测试样本的真实标记,蓝色的点表示模型在不同训练集上选出的函数的输出。第一列的两个图中,蓝色的点都比较集中,说明模型的稳定性好,也就是方差小;第一行的两个图中,蓝色点的中心都比较靠近红色靶心,说明模型的拟合能力强,也就是偏差小。所以总结如下:
low bias and low variance:又准又稳
low bias and high variance: 准但不稳
high bias and low variance:不准但稳
high bias and high variance:不准又不稳
那模型和偏差、方差之间的对应关系是什么样呢?还是以回归任务为例,看一个极端例子, y = c y=c y=c,不论模型的训练数据如何变化,学得的函数都不会变,因此 f ( x ; D ) f(x;D) f(x;D)的输出都相同,即模型的稳定性非常好,但是对训练集的拟合也不是很好,显然对于测试样本的预测也不会很准确,这种对训练集刻画不足的情况,称为欠拟合(underfitting)。逐渐增加模型的复杂度,学得的函数对训练数据的拟合越来越好这里写图片描述

但是,对于一个复杂的模型,当我们稍微改变训练样本时,学得的函数差距将非常的大
这里写图片描述
这说明复杂的模型对训练样本拟合很好,但是模型的波动性也很大,很可能在测试样本的表现非常差。可以理解为,复杂的模型将训练样本的特性当作全体样本的通性,将噪声引入了模型中,这种现象称之为过拟合(overfitting)。所以我们需要在模型复杂度之间权衡,使偏差和方差得以均衡(trade-off),这样模型的整体误差才会最小。
这里写图片描述

欠拟合和过拟合应对策略

欠拟合(刻画不够)

  1. 寻找更好的特征,提升对数据的刻画能力
  2. 增加特征数量
  3. 重新选择更加复杂的模型

过拟合(刻画太细,泛化太差)

  1. 增加训练样本数量,样本多了,噪声比中就减少了
  2. 减少特征维数,高维空间密度小
  3. 加入正则化项,使得模型更加平滑

模型选择

同一模型在不同训练集上学得的函数往往不同,那我们怎样才能选出最好的模型和最好的函数呢?可以采用交叉验证(Cross Validation)法,其基本思路如下:将训练集划分为K份,每次采用其中K-1份作为训练集,另外一份作为验证集,在训练集上学得函数后,然后在验证集上计算误差。再次选择另外K-1份数据再次重复上述过程,最终模型的误差为学得的K个函数的误差的平均值,并依据此值选择最佳模型,最后在整个训练集上训练选择的最佳模型,并在测试集上进行测试。
这里写图片描述
同时,交叉验证也解决了上面说的variance(不同训练集学得的函数的差异)和bias(不同函数的平均值)两大问题。说白了,交叉验证验证了你的模型是否够精确,够稳定,不能说在某个数据集上表现好就可以,你做的模型是要放在整个数据集上来看的,毕竟泛化能力才是机器学习的核心。

参考文献

李宏毅主页
知乎-机器学习中的Bias(偏差),Error(误差),和Variance(方差)有什么区别和联系?
总结:Bias(偏差),Error(误差),Variance(方差)及CV(交叉验证)

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值