深度学习学习率的研究

本文探讨了深度学习中学习率的设定方法,包括分段常数衰减、指数衰减、自然指数衰减和多项式衰减。通过不同的衰减策略,可以优化模型训练效果,其中分段常数衰减需要调试人员对模型和数据有深入理解,指数衰减遵循指数规律,自然指数衰减使用自然指数衰减学习率,多项式衰减则允许学习率在达到最低点后往复变化。
摘要由CSDN通过智能技术生成

一.是通过人为经验进行设定,如到达多少轮后,设定具体的学习率为多少

分段常数衰减
分段常数衰减是在事先定义好的训练次数区间上,设置不同的学习率常数。刚开始学习率大一些,之后越来越小,区间的设置需要根据样本量调整,一般样本量越大区间间隔应该越小。
tf.train.piecewise_constant(
x,
boundaries,
values,
name=None
)
x: 标量,指代训练次数
boundaries: 学习率参数应用区间列表
values: 学习率列表,values的长度比boundaries的长度多一个
name: 操作的名称
boundaries = [10, 20, 30] (分三段,然后设置四个不同的学习速率)
learing_rates = [0.1, 0.07, 0.025, 0.0125]
分段常数衰减可以让调试人员针对不同任务设置不同的学习率,进行精细调参,要求调试人员对模型和数据集有深刻认识,要求较高。
在这里插入图片描述

二.是随着迭代轮数的增加学习率自动发生衰减,这类有比较常用的指数型衰退

1.指数衰减
指数衰减是比较常用的衰减方法,学习率是跟当前的训练轮次指数相关的。
计算公式是:
decayed_learning_rate = learning_rate *
decay_rate ^

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值