Pytorch中的学习率衰减及其用法_epochs=50 train_loss_list=[] val_loss_list=[] for (3)

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以添加戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

torch.optim.lr_sheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)


参数:  
 milestone(list): 一个列表参数,表示多个学习率需要调整的epoch值,如milestones=[10, 30, 80].  
 其它参数同(1)。


(3) 指数衰减调整学习率 ExponentialLR


学习率呈指数型衰减,每训练一个epoch,lr=lr*gamma*\*epoch,即



torch.optim.lr_sheduler.ExponentialLR(optimizer, gamma, last_epoch)


参数:


* gamma(float):学习率调整倍数的底数,指数为epoch,初始值我lr, 倍数为  
 其它参数同上。


(4) 余弦退火函数调整学习率:


学习率呈余弦函数型衰减,并以2\*T\_max为余弦函数周期,epoch=0对应余弦型学习率调整曲线的,epoch=T\_max对应余弦型学习率调整曲线的eta\_min处,随着epoch>T\_max,学习率随epoch增加逐渐上升,整个走势同cos(x)。



torch.optim.lr_sheduler.CosineAnnealingLR(optimizer, T_max, eta_min=0, last_epoch=-1)


参数:


* T\_max(int): 学习率下降到最小值时的epoch数,即当epoch=T\_max时,学习率下降到余弦函数最小值,当epoch>T\_max时,学习率将增大;
* eta\_min: 学习率调整的最小值,即epoch=T\_max时,eta\_min, 默认为0.  
 其它参数同上。


(5) 根据指标调整学习率 ReduceLROnPlateau


当某指标(loss或accuracy)在最近几个epoch中都没有变化(下降或升高超过给定阈值)时,调整学习率。  
 如当验证集的loss不再下降是,调整学习率;或监察验证集的accuracy不再升高时,调整学习率。



torch.optim.lr_sheduler.ReduceLROnPlateau(optimizer, mode=‘min’, factor=0.1, patience=10,
verbose=False, threshold=0.0001, threshold_mode=‘rel’, cooldown=0, min_lr=0, eps=1e-08)


参数:


* mode(str): 模式选择,有min和max两种模式,min表示当指标不再降低(如监测loss),max表示当指标不再升高(如监测accuracy)。
* factor(float): 学习率调整倍数,同前面的gamma,当监测指标达到要求时,lr=lr×factor。
* patience(int): 忍受该指标多少个epoch不变化,当忍无可忍时,调整学习率。
* verbose(bool): 是否打印学习率信息,print( 'Epoch {:5d} reducing learning rate of group {} to {:.4e}.'.format(epoch, i, new\_lr), 默认为False, 即不打印该信息。
* threshold\_mode (str): 选择判断指标是否达最优的模式,有两种模式:rel 和 abs.  
 当threshold\_mode == rel, 并且 mode == max时,dynamic\_threshold = best \* (1 + threshold);  
 当threshold\_mode == rel, 并且 mode == min时,dynamic\_threshold = best \* (1 - threshold);  
 当threshold\_mode == abs, 并且 mode == max时,dynamic\_threshold = best + threshold;  
 当threshold\_mode == abs, 并且 mode == min时,dynamic\_threshold = best - threshold;
* threshold(float): 配合threshold\_mode使用。
* cooldown(int): “冷却时间”,当调整学习率之后,让学习率调整策略冷静一下,让模型在训练一段时间,再重启监测模式。
* min\_lr(float or list): 学习率下限,可为float,或者list,当有多个参数组时,可用list进行设置。
* eps(float): 学习率**衰减的最小值**,当学习率的**变化值**小于eps时,则不调整学习率。



optimizer = torch.optim.SGD(model.parameters(), args.lr,
momentum=args.momentum, weight_decay=args.weight_decay)

scheduler = ReducelROnPlateau(optimizer,‘min’)
for epoch in range( args.start epoch, args.epochs ):
train(train_loader , model, criterion, optimizer, epoch )
result_avg, loss_val = validate(val_loader, model, criterion, epoch)
# Note that step should be called after validate()
scheduler.step(loss_val )


(6) 自定义调整学习率 LambdaLR


为不同参数组设定不同学习率调整策略。调整规则为:  
 lr = base\_lr \* lambda(self.last\_epoch)  
 在fine-tune中特别有用,我们不仅可以为不同层设置不同的学习率,还可以为不同层设置不同的学习率调整策略。



torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)


参数:


* lr\_lambda(function or list): 自定义计算学习率调整倍数的函数,通常时epoch的函数,当有多个参数组时,设为list.  
 其它参数同上。  
 例:



ignored_params = list(map(id, net.fc3.parameters()))
base_params = filter(lambda p: id§ not in ignored_params, net.parameters())
optimizer = optim.SGD([
{‘params’: base_params},
{‘params’: net.fc3.parameters(), ‘lr’: 0.001*100}], 0.001, momentum=0.9,weight_decay=1e-4)

Assuming optimizer has two groups.

lambda1 = lambda epoch: epoch // 3
lambda2 = lambda epoch: 0.95 ** epoch
scheduler = LambdaLR(optimizer, lr_lambda=[lambda1, lambda2])
for epoch in range(100):
train(…)
validate(…)
scheduler.step()
print('epoch: ', i, 'lr: ', scheduler.get_lr())

输出:
epoch: 0 lr: [0.0, 0.1]
epoch: 1 lr: [0.0, 0.095]
epoch: 2 lr: [0.0, 0.09025]
epoch: 3 lr: [0.001, 0.0857375]
epoch: 4 lr: [0.001, 0.081450625]
epoch: 5 lr: [0.001, 0.07737809374999999]
epoch: 6 lr: [0.002, 0.07350918906249998]
epoch: 7 lr: [0.002, 0.06983372960937498]
epoch: 8 lr: [0.002, 0.06634204312890622]
epoch: 9 lr: [0.003, 0.0630249409724609]
为什么第一个参数组的学习率会是 0 呢? 来看看学习率是如何计算的。
第一个参数组的初始学习率设置为 0.001,
lambda1 = lambda epoch: epoch // 3,
第 1 个 epoch 时,由 lr = base_lr * lmbda(self.last_epoch),
可知道 lr = 0.001 (0//3) ,又因为 1//3 等于 0,所以导致学习率为 0。
第二个参数组的学习率变化,就很容易看啦,初始为 0.1, lr = 0.1 * 0.95^epoch ,当
epoch 为 0 时, lr=0.1 , epoch 为 1 时, lr=0.1
0.95。



-- coding:utf-8 --

‘’‘本文件用于测试pytorch学习率调整策略’‘’

author = ‘puxitong from UESTC’

import torch
import torch.optim as optim
from torch.optim import lr_scheduler
from torchvision.models import AlexNet
import matplotlib.pyplot as plt

model = AlexNet(num_classes=2)
optimizer = optim.SGD(params=model.parameters(), lr=0.1)

等间隔调整学习率,每训练step_size个epoch,lr*gamma

scheduler = lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1)

多间隔调整学习率,每训练至milestones中的epoch,lr*gamma

scheduler = lr_scheduler.MultiStepLR(optimizer, milestones=[10, 30, 80], gamma=0.1)

指数学习率衰减,lr*gamma**epoch

scheduler = lr_scheduler.ExponentialLR(optimizer, gamma=0.9)

余弦退火学习率衰减,T_max表示半个周期,lr的初始值作为余弦函数0处的极大值逐渐开始下降,

在epoch=T_max时lr降至最小值,即pi/2处,然后进入后半个周期,lr增大

scheduler = lr_scheduler.CosineAnnealingLR(optimizer, T_max=100, eta_min=0)

plt.figure()
x = list(range(100))
y = []
for epoch in range(100):
scheduler.step()
y.append(scheduler.get_lr()[0])

plt.plot(x, y)
plt.show()


2. 手动调整学习率:



def adjust_learning_rate(optimizer, epoch):
“”“Sets the learning rate to the initial LR decayed by 10 every 30 epochs”“”
lr = args.lr * (0.1 ** (epoch // 30))
for param_group in optimizer.param_groups:
param_group[‘lr’] = lr



img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以添加戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

需要这份系统化的资料的朋友,可以添加戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值