深度学习--第14篇: Pytorch学习率调整策略

参考博客

参考博客:https://blog.csdn.net/weixin_42147780/article/details/103258448

1. 背景知识

学习率是每一次反向传播过程中梯度更新的步长大小。假如学习率一直不变,如果学习率设置的过大,每一次更新的步长就很大,更新速度虽然很快,不容易收敛到极值点(可能上一次,非常接近极小值了,但是更新的步长太大就‘跳’过去了),或者在极值点来回震荡,无法收敛到极值。但是如果学习率设置的很小,那么每一次更新只能挪动一点点,则完整的训练时间就会变得很长。

因此如果能够我们随着模型训练的推进,能够控制或者调整学习率大小,那模型说要的训练时间、模型获得的训练效果是不是就更好了呢。(前期学习率大,后期学习率小)

1.1 Pytorch中的学习率调整

主要的学习率调整策略都是继承这个类
在这里插入图片描述学习率调整方法
在这里插入图片描述

2. pytorch学习率调整方法

2.1 StepLR()

# 函数形式:
torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1)

# 功能: 等间隔调整学习率
# 参数:
optimizer: 优化器对象
step_size: 调整间隔数,根据epoch数设置间隔
gamma: 调整系数

调整方式 lr = lr*gamma

# 实例
scheduler_lr = optim.lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.1)  # 设置学习率下降策略,实例化对象

scheduler_lr.step()  # 更新学习率

2.2 MultiStepLR()

# 函数形式
torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)

# 功能: 按给定间隔调整学习率
# 参数:
optimizer: 优化器对象
milestones: 指定需要调整的epoch位置,列表形式list
gamma: 调整系数

调整方式 lr = lr*gamma

# 实例
scheduler_lr = optim.lr_scheduler.MultiStepLR(optimizer, milestones=[2,5,8], gamma=0.1)  # 设置学习率下降策略,实例化对象

scheduler_lr.step()  # 更新学习率

2.3 ExponentialLR()

# 函数形式
torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma=0.95, last_epoch=-1)

# 功能: 按指数衰减调整学习率
# 参数:
optimizer: 优化器对象
gamma: 指数的底,通常接近1

调整方式 lr = lr*gamma**epoch

# 实例
scheduler_lr = optim.lr_scheduler.ExponentialLR(optimizer,  gamma=0.95)  # 设置学习率下降策略,实例化对象

scheduler_lr.step()  # 更新学习率

2.4 ReduceLROnPlateau()

# 函数形式
torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)

# 功能:监控指标,当指标不再变化则调整,可以根据loss进行确定是否调整学习率

# 参数:
mode:min/max 两种模式
factor:调整系数
patience:“耐心”,接受几次不变化
cooldown:“冷却时间”,停止监控一段时间
verbose:是否打印日志
min_lr:学习率下限
eps:学习率衰减最小值

# 实例
scheduler_lr = optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10)
  # 设置学习率下降策略,实例化对象

scheduler_lr.step(loss)  # 更新学习率

3. 学习率调整小结

在这里插入图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值