TensorFlow笔记之神经网络优化——学习率

  1. 学习率:表示了每次更新参数的幅度大小。学习率过大,会导致待优化的参数在最小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢。
           在训练过程中,参数的更新相纸损失函数梯度下降的方向。参数的更新公式为:
           假设损失函数为 loss = (w + 1)2。梯度是损失函数 loss 的导数为 ∇=2w+2。如参数初值为 5,学习率为 0.2,则参数和损失函数更新如下:
           1 次     参数 w:      5 5 - 0.2 * (2 * 5 + 2) = 2.6
           2 次     参数 w:      2.6 2.6 - 0.2 * (2 * 2.6 + 2) = 1.16
           3 次     参数 w:      1.16 1.16 – 0.2 * (2 * 1.16 + 2) = 0.296
           4 次     参数 w:      0.296
           损失函数 loss = (w + 1)2 的图像为:

                              
  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值