【李宏毅机器学习】03:误差Error

李宏毅机器学习03:误差Error

在这里插入图片描述

ML Lecture 2 Where does the error come from

一、Bias & Variance 偏差和方差

1.误差的来源

从上节课测试集数据来看,Average Error 随着模型复杂增加呈指数上升趋势。更复杂的模型并不能给测试集带来更好的效果,而这些Error 的主要有两个来源,分别是 bias(偏差) 和 variance(方差) 。
在这里插入图片描述

2.偏差和方差的理解

以打靶为例理解偏差和误差:

假设真实的模型为 f ^ \hat f f^,通过 step1~step3 训练得到的模型是 f ∗ f^* f, f ∗ f^* f f ^ \hat f f^ 的预估。
将此过程类比打靶, f ^ \hat f f^ 是目标靶心, f ∗ f^* f是我们射击的结果。
如下图所示, f ^ \hat f f^ f ∗ f^* f之间蓝色部分的差距就是偏差和方差导致的。
在这里插入图片描述

射击点距离靶心近则偏差小,射击点偏离靶心远则偏差大;
射击点集中则方差小,射击点分散则方差大。
如下图所示:
在这里插入图片描述

3.偏差和方差出现的原因

Training data 是所有数据的一个子集,通过Training data 训练模型去预测Testing data 相当于统计学中通过样本预测总体。
设总体的期望为 μ \mu μ,方差为 σ 2 \sigma^2 σ2, 样本的统计量:样本均值为 ξ ˉ \bar \xi ξˉ 和样本方差 S 2 S^2 S2

通常情况:
ξ ˉ = 1 n ∑ i = 1 n ξ i ≠ μ \bar\xi=\frac{1}{n}\displaystyle\sum_{i=1}^n\xi_i\not =\mu ξˉ=n1i=1nξi=μ
S 2 = = 1 n ∑ i = 1 n ( ξ i − ξ ˉ ) 2 ≠ σ 2 S^2==\frac{1}{n}\displaystyle\sum_{i=1}^n(\xi_i-\bar\xi)^2\not =\sigma^2 S2==n1i=1n(ξiξˉ)2=σ2

  • Bias of Estimator 偏差的估算:

    通过多个样本估计,样本均值是无偏估计量
    E ( ξ ˉ ) = μ E(\bar\xi)=\mu E(ξˉ)=μ
    在这里插入图片描述

  • Variance of Estimator 方差的估算:

    通过多个样本估计,样本方差是有偏估计量,修正样本方差是无偏估计量
    E ( S 2 ) = n − 1 n σ 2 E(S^2)=\frac{n-1}{n}\sigma^2 E(S2)=nn1σ2
    在这里插入图片描述

4.模型的偏差和方差

对100个样本采取不同模型:

  • y = b + w ⋅ x c p y=b+w\cdot x_{cp} y=b+wxcp

    在这里插入图片描述

  • y = b + w 1 ⋅ x c p + w 2 ⋅ x c p 2 + w 3 ⋅ x c p 3 y=b+w_1\cdot x_{cp}+w_2\cdot x_{cp}^2+w_3\cdot x_{cp}^3 y=b+w1xcp+w2xcp2+w3xcp3

    在这里插入图片描述

  • y = b + w 1 ⋅ x c p + w 2 ⋅ x c p 2 + w 3 ⋅ x c p 3 + w 4 ⋅ x c p 4 + w 5 ⋅ x c p 5 y=b+w_1\cdot x_{cp}+w_2\cdot x_{cp}^2+w_3\cdot x_{cp}^3+w_4\cdot x_{cp}^4+w_5\cdot x_{cp}^5 y=b+w1xcp+w2xcp2+w3xcp3+w4xcp4+w5xcp5

    在这里插入图片描述

(1)Bias偏差

一次模型的偏差较大,而复杂的五次模型,偏差较小。
在这里插入图片描述

(2)Variance方差

一次模型的方差较小,分布比较集中,离散程度较小。而五次模型的方差较大,散布比较广,离散程度较大。

模型简单,方差较小;模型复杂,方差较大

原因:简单模型受到不同训练集的影响比较小。
在这里插入图片描述

二、What to do with error 误差的处理

Bias v.s. Variance 偏差和方差对比

将误差拆分为偏差和方差。简单模型(左边)是偏差比较大造成的误差,这种情况叫做欠拟合,而复杂模型(右边)是方差过大造成的误差,这种情况叫做过拟合。
因此,理想的模型应该是介于欠拟合和过拟合之间的,误差最小的模型。
在这里插入图片描述

1.Large bias - underfitting偏差大 - 欠拟合

  • Diagnosis判断方法:
    训练集在模型上没有得到好的结果。
  • What to do with large bias 解决方法:
    redesign your model 重新设计模型:
    • Add more features as input
      将更多的特征作为输入加入模型
    • A more complex model
      设计一个更复杂的模型

在这里插入图片描述

2.Large variance - Overfitting 方差大 - 过拟合

  • What to do with large variance 解决方法:
    • More data更多的数据
      但是很多时候不一定能做到收集更多的数据。可以针对对问题的理解对数据集做调整。
    • Regularization正则化
      y = ∑ i = 1 n ( y i ^ − ( b + w ⋅ x c p i ) ) 2 + λ ∑ ( w i ) 2 y=\displaystyle\sum_{i=1}^n\big(\hat{y^i}-(b+w\cdot x_{cp}^i)\big)^2+\color{blue}\lambda\sum(w_i)^2 y=i=1n(yi^(b+wxcpi))2+λ(wi)2

在这里插入图片描述

三、Model Selection模型的选择

因为现有测试集并不是完整的测试集,所以通过现有测试集选择的模型可能在实际数据集上的表现并不理想。因此在模型的选择上可以采取交叉验证、k-折交叉验证等方法。
在这里插入图片描述

1.Cross Validation 交叉验证

将训练集分成两份:
Training Set 训练集,Validation Set验证集
在这里插入图片描述

2.K-fold Cross Validation k折交叉验证

将训练集分成N份,比如分成3份,选取一份作为验证集
在这里插入图片描述

【知识索引】【李宏毅机器学习】

  • 7
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

BkbK-

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值