Pytorch 调整学习率:torch.optim.lr_scheduler.CosineAnnealingLR和CosineAnnealingWarmRestarts

一,torch.optim.lr_scheduler.CosineAnnealingLR
参数说明:
torch.optim.lr_scheduler.CosineAnnealingLR(optimizer,T_max,eta_min=0,last_epoch=-1)
T_max:因为学习率是周期性变化的,该参数表示周期的1/2,也就是说,初始的学习率为a,经过2*T_max时间后,学习率经过了一个周期变化后还是a。
eta_min:表示学习率可变化的最小值,默认为0
T_max设为20,总的epoch为150

在去噪实验中,将T_max的值设定为总的训练epoch,其学习率的变化如下图所示:
T_max取训练的epoch总数
torch.optim.lr_scheduler.CosineAnnealingWarmRestarts(optimizer,T_0,T_mult,eta_min)

T_0:表示学习率第一次周期性变化的epoch数
T_mult:如果设定为1,则是均匀的周期变化;如果设定为大于1,比如2,则学习率的变化周期是:
如下图所示:T_0为10,则表示第一个周期性变化轮次为10
T_mult为2
在这里插入图片描述

测试代码

import torch
from torchvision.models import AlexNet
from torch.optim.lr_scheduler import CosineAnnealingLR
import matplotlib.pyplot as plt

model = AlexNet(num_classes=2)
optimizer = torch.optim.Adam(model.parameters(),lr=1e-4)
#eta_min最小的学习率

scheduler =torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=150) #torch.optim.lr_scheduler.CosineAnnealingWarmRestarts(optimizer,T_0=10,T_mult=2,eta_min=1e-6)
plt.figure()
x = list(range(150))
y = []
for epoch in range(1,151):
    optimizer.zero_grad()
    optimizer.step()
    print("第%d个epoch的学习率:%f" % (epoch,optimizer.param_groups[0]['lr']))
    scheduler.step()
    y.append(scheduler.get_lr()[0])

# 画出lr的变化    
plt.plot(x, y)
plt.xlabel("epoch")
plt.ylabel("lr")
plt.title("learning rate's curve changes as epoch goes on!")
plt.savefig("learning_rate_150_20.png")
  • 14
    点赞
  • 47
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值