动态调整lr
pytorch网络训练过程中,动态调整学习率
可参考如下两个博文:
[ pytorch ] 基本使用丨3. finetune冻结层操作 + 学习率超参数设置丨_它的专栏-CSDN博客
【PyTorch】crnn-finetune模型学习率调整策略 - 灰信网(软件开发博客聚合)
#不同层设置不同的学习率
train_params = list(map(id,crnn.rnn.parameters())) #20
rest_params = filter(lambda x:id(x) not in
原创
2022-03-05 08:55:33 ·
443 阅读 ·
0 评论