TensorFlow三种常用的优化器

简介

目前TensorFlow支持11种不同的经典优化器(参考TensorFlow API tf.train文档

  • tf.train.Optimizer
  • tf.train.GradientDescentOptimizer
  • tf.train.AdadeltaOptimizer
  • tf.train.AdagtadOptimizer
  • tf.train.AdagradDAOptimizer
  • tf.train.MomentumOptimizer
  • tf.train.AdamOptimizer
  • tf.train.FtrlOptimizer
  • tf.train.ProximalGradientDescentOptimizer
  • tf.train.ProximalAdagradOptimizer
  • tf.train.RMSProOptimizer


介绍三种常用优化器

下面重点介绍 tf.train.GradientDescentOptimizertf.train.MomentumOptimizer、tf.train.AdamOptimizer

  1. tf.train.GradientDescentOptimizer

        这个优化器主要实现的是 梯度下降算法

__init__(
    learning_rate,
    use_locking=False,
    name='GradientDescent'
)
  • learning_rate: (学习率)张量或者浮点数
  • use_locking: 为True时锁定更新
  • name: 梯度下降名称,默认为"GradientDescent".

     

   2. tf.train.MomentumOptimizer

        实现 动量梯度下降算法 ,可参考 简述动量Momentum梯度下降

Δxt=ρΔxt1ηgt
其中, ρ  即momentum,表示要在多大程度上保留原来的更新方向,这个值在0-1之间,在训练开始时,由于梯度可能会很大,所以初始值一般选为0.5;当梯度不那么大时,改为0.9。
η
 是学习率,即当前batch的梯度多大程度上影响最终更新方向,跟普通的SGD含义相同。
ρ
与 

η 之和不一定为1。

__init__(
    learning_rate,
    momentum,
    use_locking=False,
    name='Momentum',
    use_nesterov=False
)
  • learning_rate: (学习率)张量或者浮点数
  • momentum: (动量)张量或者浮点数
  • use_locking为True时锁定更新
  • name:  梯度下降名称,默认为 "Momentum".
  • use_nesterov:  为True时,使用 Nesterov Momentum. 

   3.  tf.train.AdamOptimizer

        实现 Adam优化算法(  Adam 这个名字来源于 adaptive moment estimation,自适应矩估计。)

可参考博客梯度优化算法Adam

__init__(
    learning_rate=0.001,
    beta1=0.9,
    beta2=0.999,
    epsilon=1e-08,
    use_locking=False,
    name='Adam'
)
  • learning_rate: (学习率)张量或者浮点数
  • beta1:  浮点数或者常量张量 ,表示 The exponential decay rate for the 1st moment estimates.
  • beta2:  浮点数或者常量张量 ,表示 The exponential decay rate for the 2nd moment estimates.
  • epsilon: A small constant for numerical stability. This epsilon is "epsilon hat" in the Kingma and Ba paper (in the formula just before Section 2.1), not the epsilon in Algorithm 1 of the paper.
  • use_locking: 为True时锁定更新
  • name:  梯度下降名称,默认为 "Adam".

              




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值