四、在训练中动态的调整学习率
1 2 3 4 5 6 7 8 9 |
|
可以看到optimizer.param_groups结构,[{'params','lr', 'momentum', 'dampening', 'weight_decay', 'nesterov'},{……}],集合了优化器的各项参数。
--------------------------------------------------------------------
动态修改学习率 for param_group in optimizer.param_groups: param_group["lr"] = lr 得到学习率 optimizer.param_groups[0]["lr"]
我自己查看的优化器参数
# print('查看optimizer.param_groups结构:') # i_list=[i for i in optimizer.param_groups[0].keys()] # print(i_list) ['amsgrad', 'params', 'lr', 'betas', 'weight_decay', 'eps']
参考链接:
https://www.cnblogs.com/hellcat/p/8496727.html
https://www.pytorchtutorial.com/pytorch-learning-rate-decay/