16.周期学习率(cyclical learing rates,CLR)

周期学习率(cyclical learing rates,CLR).该方法不是单调的降低学习率,而是使学习率在合理的边界值内循环变化。
    使用周期学习率而不是固定值进行训练可以提高分类准确率,而无需进行调整并且通常可以减少迭代次数。
    本文还描述了一种估算“合理界限”的简单方法 -- 在几个周期内线性的增加学习率。
    
    贡献点: 
    1. 一种用于设置全局学习率的方法,无需大量实验即可找到最佳值和变化策略,且基本上无需额外的计算量 
    2. 证明了一个惊人的现象,学习率反复升降虽然暂时损害了网络性能,但是整体是收益的
    3. 在CIFAR10和CIFAR100对ResNets,Stochastic Depth networks,  DenseNets, 在ImageNet对AlexNet、GoogLeNet进行了验证
    
    和自适应学习率比: 
    1. 自适应学习率可以看作是CLR的一个竞争对手,因为它可以依靠局部自适应学习率代替全球学习率,但是会产生很大的计算成本。CLR没有这种计算开销可以自由使用。 
    2. 和自适应学习率不同的是,CLR 可以包含自适应学习率(后面会讨论CLR+自适应学习率)
    3. 另外CLR策略在计算上比自适应学习率简单。CLR跟SGDR很像。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值