李宏毅机器学习笔记Day3——梯度下降

1.梯度下降的主要步骤
大概可以总结为一个设置参数,在不断通过求梯度不断更新参数的过程。
在这里插入图片描述
2.梯度下降的tips
(1)调learning rate
我们可以看到Loss的变化
在这里插入图片描述
调learning rate的情形与方法
在这里插入图片描述
Adagrad:每个参数分开考虑,其中要考虑root mean square
在这里插入图片描述
(2)Stochastic Gradient Descent
与Gradient Descent相比,只考虑一个xn,要更新很多次参数,可以看到下降得更快。
在这里插入图片描述
(3)Feature Scaling
使每一个feature的scale接近,这样易于更新参数。
在这里插入图片描述
3.梯度下降的理论知识
(1)当我们更新参数时,Loss的值不会越来越小;
(2)Formal Derivation:划红色的圆圈,在圆圈内得到最小的Loss值,其中(a,b)是中心点,可以更新参数。
在这里插入图片描述
这就是gradient descent
在这里插入图片描述
4.梯度下降的限制
会卡在微分值是0,但不是local minima的地方
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值