pytorch各种学习率衰减器

各种学习率衰减器

各类衰减器文档:【here】

指数衰减

torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma=0.98)

在这里插入图片描述
一般将last_epoch 设置成-1,verbose设置成FALSE
学习率调整公式:在这里插入图片描述
在这里插入图片描述

固定步长衰减

torch.optim.lr_scheduler.StepLR(optimizer, step_size=step_size, gamma=0.1)
参数:
optimizer (Optimizer):的优化器;
step_size(int):更新epoch;
gamma(float):更新lr的乘法因子;
last_epoch (int):默认-1
在这里插入图片描述

多步长衰减

torch.optim.lr_scheduler.MultiStepLR(optimizer,milestones=[2050], gamma=0.8)

在这里插入图片描述
在这里插入图片描述

余弦退火衰减

torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=60, eta_min=0)

在这里插入图片描述
T_max为余弦函数的一个半周期
在这里插入图片描述

函数衰减

lambda1 = lambda i: 0.1 * i
torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1, verbose=False)
#lr = lr *lamda

在这里插入图片描述

自适应调整衰减

torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)

在这里插入图片描述

warm up

先将学习率从很小的值逐渐上升,再用现有的学习率衰减器

预热余弦退火

torch.optim.lr_scheduler.CosineAnnealingWarmRestarts(optimizer, T_0=20, T_mult=2, eta_min=0.01)

在这里插入图片描述
T_0和T_mult的不同设置的比较
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值