李宏毅ML-01-Gradient Descent

梯度下降

梯度下降是一种适用面很广的优化参数方法,理由偏导数对多元函数的参数迭代更新使得损失函数取得最小值。

损失函数-Loss Function

损失函数一般都使用方差来评判模型的好坏。

理论基础

比如有一个线性预测函数: f ( x ) = b + w x f(x)=b+wx f(x)=b+wx
我们就用方差作为Loss Function: L ( f ) = ∑ i = 1 n ( y i − f ( x i ) ) 2 L(f)=\sum_{i=1}^{n}(y_{i}-f(x_{i}))^2 L(f)=i=1n(yif(xi))2
让这个函数取地最小值的参数 b , w b,w b,w 就是我们想要的参数,所以最终可以把Loss Function看作以原函数系数为自变量的函数: L ( b , w ) = ∑ i = 1 n ( y i − ( b + w x i ) ) 2 L(b,w)=\sum_{i=1}^{n}(y_{i}-(b+wx_{i}))^2 L(b,w)=i=1n(yi(b+wxi))2
这样就成了求极值的问题。

具体步骤
  • 随机选择起点,即随机选择预测函数的参数(Loss Function的自变量);
  • 选择学习率 η \eta η
    在这里插入一个小技巧:在做梯度下降时寻找适合的学习率很关键;建议将不同learning rate的训练结果可视化在一张图上
    在这里插入图片描述
    这样就知道自己的学习率是不是合适的。
  • 计算Loss Function在这一点的偏导数 ∂ L ∂ w \frac{\partial L}{\partial w} wL ∂ L ∂ b \frac{\partial L}{\partial b}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值