Datawhale 深度学习task03 ---梯度下降(P5-P8)

本文探讨了模型误差的来源,主要分为偏差(bias)和方差(variance)。偏差衡量模型预测与真实值的偏离,而方差关注不同训练样本下模型预测的差异。过拟合是由于高方差导致的,欠拟合则源于高偏差。为降低误差,可以采取增加数据量或正则化等方法。其中,学习率调整在梯度下降中至关重要,合适的衰减策略能帮助找到更好的平衡点。此外,交叉验证也是评估模型性能的有效工具。
摘要由CSDN通过智能技术生成

error来自于什么地方

  • 一个来自于bias,一个来自于variance
  • 你的estimator是不是biased,判断标准 E [ f ∗ ] = f ^ E[f^*] = \hat f E[f]=f^ (有没有瞄准靶心🎯)
    在这里插入图片描述
  • 这样你的 f ^ \hat f f^与靶心之间就是有一个bias的
  • 每一个 f ∗ f^* f f ^ \hat f f^之间的距离就是一个variance
  • 比较简单的model就是bias比较大,variance比较小
  • 比较复杂的model就是bias比较小,variance比较大
  • 如果你的error来自于bias很大,那么就是underfitting。如果你的error来自于variance很大,那么就是overfitting。
what to do with large variance
  • more data:很高效,不会对bias有所影响,但是往往我们没有那么多的data
  • Regularization:可能会伤害bias
  • 一般select a model可以平衡这两种误差
    在这里插入图片描述
  • 除了Cross Validation,还可以N-fold Cross Validation

梯度下降

Tip1: Tuning your learning rate

在这里插入图片描述

  • 最好画出右边这个图,看看learning rate有没有太大或者太小
  • 自动调节learning rate
    一般来说一开始learning rate要设置比较大,随着epoch次数的增多,learning rate逐渐减小
    比如: η t = η / t + 1 \eta ^t = \eta / \sqrt{t+1} ηt=η/t+1 (t为迭代的次数)
  • 但是learning rate并不是one-size-fits-all,最好还是每一个参数都设置不同的learning rate
    • 其中最好做的就是Adagrad
      在这里插入图片描述
  • 在这里插入图片描述
  • 这里是过去所有的参数微分的root mean square,不能看作上一个微分的root mean square
    在这里插入图片描述
  • 但在这个更新式子中,larger gradient, 在分子处是larger steps,在分母处确实smaller steps
  • 在只考虑一个参数的时候,更新参数选择和微分成正比
  • 在这里插入图片描述
  • 所以最好的更新方向应该与二次微分呈反比,与一次微分成正比。这样才能比较准确的反映这个点和最低点之间的距离
  • Adagrad就类似于这里
Stochastic Gradient Descent
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

五月的天气

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值