Tensorflow基础代码报错学习笔记8——Optimizer优化器

本文是TensorFlow优化器的学习笔记,涵盖了基础的Stochastic Gradient Descent (SGD)以及 Momentum、AdaGrad、RMSProp和Adam等优化算法的原理和数学表达式。通过比较不同优化器的特点,强调了Adam在多数情况下的高效性能。在TensorFlow中,可以使用如GradientDescentOptimizer、MomentumOptimizer和AdamOptimizer等内置优化器。
摘要由CSDN通过智能技术生成

原教程地址

最基础的优化方法

Stochastic Gradient Descent(SGD)
思路:
将数据分为小批小批的,再进入NN中计算
每次采用批量数据,虽然不能整体上反映数据的情况,不过在很大程度上加速了NN的训练过程,并且不会损失很多准确率

其他优化方法

SGD并不是最快的优化方法
其他方法大部分是在神经网络训练参数的时候动手脚
W += - Learning rate * dx
dx为校正值

Momentum

这种方法可能会另学习过程曲折无比,就像一个喝醉的人,所以把它放在一个斜坡上(参考原教程的图示),由于向下的惯性,它会不自觉地一直往下走,走的弯路就会变少

数学形式为:
m = b1 * m - learning rate * dx
W += m

AdaGrad

这种方法在学习率上动手脚,使每一个参数的更新都会有与众不同的学习效率,这种方法并不是给一个喝醉的人安排另一个斜坡,而是给他一双不好走的鞋子,使得鞋子变成走弯路的阻力,逼着他往前直走

数学形式为:
v += dx^2
w += -Learning r

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值