pytorch 学习率衰减机制学习笔记

目录

1|1手动修改optimizer中的lr

使用for循环来手动人工进行learning rate的衰减

 

model = net() LR = 0.01 optimizer = Adam(model.parameters(),lr = LR) lr_list = [] for epoch in range(100): if epoch % 5 == 0: for p in optimizer.param_groups: p['lr'] *= 0.9#注意这里 lr_list.append(optimizer.state_dict()['param_groups'][0]['lr']) plt.plot(range(100),lr_list,color = 'r')

1|2使用lr_scheduler

LambdaLR——lambda函数衰减

 

torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)

lr_lambda 会接收到一个int参数:epoch,然后根据epoch计算出对应的lr。如果设置多个lambda函数的话,会分别作用于Optimizer中的不同的params_group

 

import numpy as np lr_list = [] model = net() LR = 0.01 optimizer = Adam(model.parameters(),lr = LR) lambda1 = lambda epoch:np.sin(epoch) / epoch scheduler = lr_scheduler.LambdaLR(optimizer,lr_lambda = lambda1) for epoch in range(100): scheduler.step() lr_list.append(optimizer.state_dict()['param_groups'][0]['lr']) plt.plot(range(100),lr_list,color = 'r')

StepLR——阶梯式衰减

 

torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1)

每个一定的epoch,lr会自动乘以gamma进行阶梯式衰减

⭐⭐⭐注意:pytorch1.1.0之后scheduler.step()要放在optimizer.step()之后!!!

 

lr_list = [] model = net() LR = 0.01 optimizer = Adam(model.parameters(),lr = LR) scheduler = lr_scheduler.StepLR(optimizer,step_size=5,gamma = 0.8) for epoch in range(100): scheduler.step() lr_list.append(optimizer.state_dict()['param_groups'][0]['lr']) plt.plot(range(100),lr_list,color = 'r')

 

MultiStepLR——多阶梯式衰减

 

torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)

三段式lr,epoch进入milestones范围内即乘以gamma,离开milestones范围之后再乘以gamma。这种衰减方式也是在学术论文中最常见的方式,一般手动调整也会采用这种方法。

 

lr_list = [] model = net() LR = 0.01 optimizer = Adam(model.parameters(),lr = LR) scheduler = lr_scheduler.MultiStepLR(optimizer,milestones=[20,80],gamma = 0.9) for epoch in range(100): scheduler.step() lr_list.append(optimizer.state_dict()['param_groups'][0]['lr']) plt.plot(range(100),lr_list,color = 'r')

1|3ExponentialLR——指数连续衰减

 

torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma, last_epoch=-1)

每个epoch中lr都乘以gamma

 

lr_list = [] model = net() LR = 0.01 optimizer = Adam(model.parameters(),lr = LR) scheduler = lr_scheduler.ExponentialLR(optimizer, gamma=0.9) for epoch in range(100): scheduler.step() lr_list.append(optimizer.state_dict()['param_groups'][0]['lr']) plt.plot(range(100),lr_list,color = 'r')

 

CosineAnnealingLR——余弦退火衰减

 

torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max, eta_min=0, last_epoch=-1)

T_max 对应1/2个cos周期所对应的epoch数值

eta_min 为最小的lr值,默认为0

ReduceLROnPlateau

 

torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)

在发现loss不再降低或者acc不再提高之后,降低学习率。

各参数意义如下:

mode:'min'模式检测metric是否不再减小,'max'模式检测metric是否不再增大;

factor: 触发条件后lr*=factor;

patience:不再减小(或增大)的累计次数;

verbose:触发条件后print;

threshold:只关注超过阈值的显著变化;

threshold_mode:有rel和abs两种阈值计算模式,rel规则:max模式下如果超过best(1+threshold)为显著,min模式下如果低于best(1-threshold)为显著;abs规则:max模式下如果超过best+threshold为显著,min模式下如果低于best-threshold为显著;

cooldown:触发一次条件后,等待一定epoch再进行检测,避免lr下降过速;

min_lr:最小的允许lr;

eps:如果新旧lr之间的差异小与1e-8,则忽略此次更新。

PyTorch学习率衰减是一种优化算法中的策略,用于调整神经网络训练过程中模型参数更新的步长,以便更好地探索损失函数的最小值。学习率衰减的目的是防止模型在训练后期过快收敛或陷入局部最优,从而提高模型的泛化能力。在PyTorch中,常见的学习率衰减方法有以下几种: 1. **固定学习率**:在整个训练过程中保持恒定的学习率,适用于简单模型和小数据集。 2. **指数衰减(Exponential Decay)**:学习率按照指数规律逐渐降低,公式为 `learning_rate * decay_rate ^ (global_step / decay_steps)`。 3. **余弦退火(Cosine Annealing)**:学习率按照余弦曲线周期性地进行调整,通常在每个周期结束后会降低到最小值。 4. **步长衰减(Step Decay)**:每经过一定数量的迭代(步长),将学习率乘以衰减因子。 5. **多阶段衰减**:分段设置多个学习率阶段,不同阶段有不同的衰减率。 6. **学习率调度器(Learning Rate Scheduler)**:在PyTorch中,可以使用`torch.optim.lr_scheduler`模块创建自定义的学习率衰减策略,如`LambdaLR`, `MultiStepLR`, `ReduceLROnPlateau`, 等。 要使用这些策略,你需要在优化器上调用相应的学习率调度器,并在训练循环中定期调用`scheduler.step()`。例如: ```python import torch.optim as optim from torch.optim.lr_scheduler import CosineAnnealingLR optimizer = optim.Adam(model.parameters(), lr=0.001) scheduler = CosineAnnealingLR(optimizer, T_max=100, eta_min=0.0001) for epoch in range(num_epochs): train(...) scheduler.step() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值