Pytorch:代码实现不同层设置不同的学习率,选择性学习某些层参数
1,如何动态调整学习率
在使用pytorch进行模型训练时,经常需要随着训练的进行逐渐降低学习率,在pytorch中给出了非常方面的方法:
假设我们定义了一个优化器:
import torch
import torch.nn as nn
optimizer = torch.optim(model.parameters(), lr = 0.01, momentum = 0.9)
该优化器...
原创
2018-12-05 14:38:53 ·
4316 阅读 ·
0 评论