FASTAI笔记-2-对fit_one_cycle理解

学习fastai中一直对fit_one_cycle有一些不懂,今天在学习中明白了其中道理。

fit_one_cycle在训练中,先使用较大的学习率,在逐步减小学习率。

首先,在学习的过程中逐步增大学习率目的是为了不至于陷入局部最小值,边学习边计算loss。

其次,当loss曲线向上扬即变大的时候,开始减小学习率,慢慢的趋近梯度最小值,loss也会慢慢减小。就如下图:

注:图为课程中的图,我借鉴来解释。

该图x轴为迭代次数,y轴为学习率

该图x轴为迭代次数,y轴为loss

结合两个图可以看出:

  1. 学习率首先逐渐变大,loss逐渐变小
  2. 当学习率达到训练时给的参数时,开始下降。
  3. 随着学习率不断降低,loss也开始降低。

这个算法被称为:learning rate annealing(学习率退火算法)。

在实际应用中,举个例子:

learn.fit_one_cycle(4, max_lr=slice(1e-2))

参数1:为epoch

参数2:为最大学习率,也就是学习率一开始会慢慢增加到指定的最大学习率,然后开始减小。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值