损失函数优化器总结

# adadelta
optimizer = tf.train.AdadeltaOptimizer(learning_rate=0.001, 
                                       rho=0.95, 
                                       epsilon=1e-8,
                                       use_locking=False, 
                                       name="Adadelta")
# adagrad
optimizer = tf.train.AdagradOptimizer(learning_rate=0.001, 
                                      initial_accumulator_value=0.1,
                                      use_locking=False, 
                                      name="Adagrad")

# adam
optimizer = tf.train.AdamOptimizer(learning_rate=0.001, 
                                   beta1=0.9, 
                                   beta2=0.999, 
                                   epsilon=1e-8,
                                   use_locking=False, 
                                   name="Adam")

# ftrl
optimizer = tf.train.FtrlOptimizer(learning_rate=0.001,
                                   learning_rate_power=-0.5,
                                   initial_accumulator_value=0.1,
                                   l1_regularization_strength=0.0,
                                   l2_regularization_strength=0.0,
                                   use_locking=False,
                                   name="Ftrl",
                                   accum_name=None,
                                   linear_name=None,
                                   l2_shrinkage_regularization_strength=0.0)

# momentum
optimizer = tf.train.MomentumOptimizer(learning_rate=0.001, 
                                       momentum=0.9,
                                       use_locking=False, 
                                       name="Momentum", 
                                       use_nesterov=False)

# rmsprop
optimizer = tf.train.RMSPropOptimizer(learning_rate=0.001, 
                                      decay=0.9,
                                      momentum=0.0,
                                      epsilon=1e-10,
                                      use_locking=False,
                                      centered=False,
                                      name="RMSProp")
# sgd
optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.001, 
                                              use_locking=False, 
                                              name="GradientDescent")

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值