python tensorflow 优化器 学习率衰减

优化器
tf.train.GradientDescentOptimizer(learning_rate=N) 梯度优化器
中的 learning_rate 参数可以是一个常数或张量。N的值介于 0 和 1 之间。

tf.train.AdadeltaOptimizer() 来实现一个自适应的、单调递减的学习率,它使用两个初始化参数 learning_rate 和衰减因子 rho:

学习率
1、指数衰减的学习率
decay_learning_rate = tf.train.exponential_decay(learning_rate, global_step, decay_steps, decay_rate,staircase=False,name=None)
learning_rate 预先定义的学习率
global_step 迭代步数,当前训练的轮数
decay_rate 衰减系数
decay_steps 衰减速度,迭代多少次进行衰减
staircase 衰减方式
计算方式:
decay_learning_rate = learning_rate x decay_rate **(global_step/decay_rate)
2、反时限学习率衰减
decay_learning_rate = tf.train.inverse_time_decay(learning_rate,global_step,decay_steps,decay_rate,staircase=False,name=None)
计算方式:
decay_learning_rate = learning_rate / (1 +decay_rate x (global_step / decay_steps ) )
3、自然指数学习率衰减
decay_learning_rate = tf.train.natural_exp_decay(learning_rate,global_step,decay_steps,decay_rate,staircase=False,name=None)
计算方式:
decay_learning_rate = learning_rate x e(-decay_rate x global_step)
4、分片常数学习率衰减
tf.train.piecewise_constant(x, boundaries, values, name=None)

5、多项式学习率衰减
tf.train.polynomial_decay(learning_rate, global_step,decay_steps,end_learning_rate=0.0001, power=1.0, cycle=False,name=None)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值