[deeplearning-001] stotisticks gradient descent随机梯度下降算法的最简单例子解释

1.gradient descent梯度下降优化

1.1假设要优化一个函数 f(x)=(x1)2 求它的最小值。这个函数在 x=1 时有最小值,这是解析解。如果用梯度下降法,是这样的:
f(x)=2(x1)
每一步的迭代公式是:
xi+1=xiηf(xi) (为什么是减号?因为是求最小值,如果是求最大值,就是加号)
如果 xi+1xi<0.1 则精度足够,终止计算。

1.2 初始值 x0=5 η=0.8 (初始值可以随便设,但 η 需要经验性地选择一下,步长太大可能会引起不收敛,步长太小会慢,更复杂一点可以搞个自适应的计算方式以调优)
1.3 第1步:
x1=x0ηf(x

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值