深度学习初探/01-回归问题/1-梯度下降算法Gradient Decent

深度学习初探/01-回归问题/梯度下降算法Gradient Decent

一、梯度下降算法的本质

通过迭代计算,不断调整 x x x的取值,从而求得函数的“极小值”

二、梯度下降算法的具体实现(类似于“二分查找”)

x 1 x_1 x1】为每次迭代后所求得的“下一步 x x x值”;
x 0 x_0 x0】为“当前 x x x值”;
f ′ ( x 0 ) f'(x_0) f(x0)】为“ f ( x ) f(x) f(x)在点 x 0 x_0 x0处的导数值”
【LR】Learning Rate,即学习速率,用于控制每一次迭代的“步长Step”,避免每一次调整距离过大
x ∗ x^* x】最终求得的极小值点

迭代公式: x 1 = x 0 − f ′ ( x 0 ) ∗ L R x_1 = x_0 - f'(x_0)*LR x1=

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值