tensorflow中学习率的调参策略

本文介绍了在TensorFlow中调整学习率的三种方法:指数衰减、分段函数下降和多项式调参。详细讨论了learning_rate、global_step、decay_steps、decay_rate等参数的含义和使用,以及阶梯式衰减和分段学习率设置。
摘要由CSDN通过智能技术生成
learning_rate_decay_type(调参策略)

1)

exponential_decay(learning_rate, global_step, decay_steps, decay_rate,
                  staircase=False, name=None)

learning_rate:初始值

global_step:逐步衰减指数

decay_steps: 衰减周期(每几步衰减一次)

decay_rate:衰减率(倍率)

staircase:False则是标准的指数型衰减,True时则是阶梯式的衰减方法

2)

piecewise_constant(x, boundaries, values, name=None)

分段函数下降法 

x: global_step

boundaries=[step_1, step_2, ..., step_n]定义衰减步数

values=[val_0, val_1, val_2, ..., val_n] 定义初始值和后续值

3)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值