pytorch 手动调整学习率

脑子不好使,记录方便查阅

...
optimizer = optim.SGD(para_optim, lr=0.001, momentum=0.9, weight_decay=0.0002)

def adjust_learning_rate(optimizer, epoch):
    lr = optimizer.param_groups[0]['lr'] * 0.1  #学习率每个epoch乘以0.1
    #lr = opt.lr * (0.1 ** (epoch // opt.step))	#学习率没10个epoch乘以0.1
    return lr
    
def train(net, optimizer):
    for epoch in range(epoch_nums):
        lr = adjust_learning_rate(optimizer, epoch-1)
        for param_group in optimizer.param_groups:
            param_group["lr"] = lr
        print('-----------learning rate', optimizer.param_groups[0]["lr"])
        
        net.train()
        for batch_idx, (inputs, targets) in enumerate(trainloader):
        ...

除此之外,还有可以通过torch.optim.lr_scheduler接口实现PyTorch学习率调整,参考https://blog.csdn.net/goodxin_ie/article/details/90704600

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值