ML _10.5_P4-7_李宏毅笔记

2. Erro 误差

  • Erro= Bias(偏差、偏移项)+Variance(方差)

  • 在这里插入图片描述estimator-估测值 ,通过平均获得。在这里插入图片描述real and perfect function,which can not be obtained by computing.

  • The mean(平均值) of x is在这里插入图片描述The variance of x is在这里插入图片描述

  • Bias=在这里插入图片描述 If we average all the , it is close to . 是每次训练的最佳函数(model)解(注:每次训练包含多个数据样本-sample data),而是真实的函数(model)。
    Variance=在这里插入图片描述且由概率论中的大数定理可以知道:在这里插入图片描述即,样本x计算得到的平均值为m,但样本x的期望平均值为在这里插入图片描述
    注意:随着样本x的数目增加,计算获得的m会接近期望值在这里插入图片描述同理,可知在这里插入图片描述在这里插入图片描述的期望值。
    注意:在这里插入图片描述,同时样本数量增加在这里插入图片描述接近在这里插入图片描述

  • 图解Bias 和 Variance 的关系在这里插入图片描述

  • Simple models have larger bias & smaller variance, while complicate models have smaller bias & larger variance.
    这是因为越复杂(含高次项)的函数model,函数空间大,包含的function多,所以函数散布的范围大,但因为函数空间大包含的函数多,所以函数空间可以提供更多的和真实function相近的函数,所以平均后的值和期望值近,bias因此会较小。

  • 如果error来自于variance很大,说明现在的模型是overfitting(过拟合);如果error来自bias很大,说明现在的模型是underfitting(欠拟合)。

  • For large bias: add more feature, or make a more complicate model.
    For large variance: get more data, or regularization-正则化 (所有曲线都会变得比较平滑).

  • Model Selection:注意:适用于Public testing set 的model可能不适用于Private testing model。因此需要引入Cross Validation或N-fold Cross Validation。在这里插入图片描述在这里插入图片描述

3 Gradient Descent梯度下降

  • 在这里插入图片描述例如,linear function 中的 w和b都属于paramerts中的variables(变量)。

  • 假设在这里插入图片描述有两个variables在这里插入图片描述则,gradient descent 的步骤为在这里插入图片描述其中,在这里插入图片描述

  • 调Learning Rate在这里插入图片描述方法:1,绘图在这里插入图片描述2,Adaptive Learning Rate:eg.第t次learning rate,在这里插入图片描述3,Adagrad:在这里插入图片描述
    g代表微分值。结合方法2中的learning rate,
    上图可以化简为在这里插入图片描述Gradient Descent的loss function是对全部example而言,加总的所有loss (update after seeing all examples)。而SGD是随机选一个example,然后计算这一个example的loss,然后更新参数(update for each example)注:在这里插入图片描述
    冲突产生反差效果,为了防止Gradient explotion or disapear。
    由下图可知在这里插入图片描述best step is在这里插入图片描述
    所以,Adagrad实际上是在模拟这样一个最佳best step的运算。但是又比直接算二次微分节省时间–牛顿法思想。在这里插入图片描述
    Gradient Descent的loss function是对全部example而言,加总的所有loss (update after seeing all examples)。而SGD是随机选一个example,然后计算这一个example的loss,然后更新参数(update for each example).在这里插入图片描述

  • Feature Scaling特征缩放/特征归一化:在这里插入图片描述
    :存在的原因:提速在这里插入图片描述
    方法:
    a_FFFFFF,t_70#pic_center)

  • Gradient Descent数理基础:因为泰勒级数在点x=x0具有任意阶导数且展开式的二阶及更高阶一般忽略,所以可以从泰勒级数的角度理解,只有gradient descent - learning rate够小,泰勒级数才能约等于只有一次项,才能保证每次都能往loss最小的方向移动。

  • Gradient Descen Limitation-Gradient Descen不work的常见情况:Very slow at the plateau、Stuck at saddle point、Stuck at local minima。在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值