torch.optim特定层设置特定的学习率等选项

本文介绍了微调在迁移学习中的应用,特别是如何使用PyTorch调整不同层的学习率。通过代码示例展示了如何选择非fc层的参数,并为fc层设置10倍的学习率,同时说明了如何禁止网络中某些层在训练时更新参数。学习到的知识点包括利用字典指定特定层的学习率以及控制参数的训练状态。
摘要由CSDN通过智能技术生成

微调属于迁移学习中的一种,今天在学习“微调”时,发现有这么一段代码:

params_1x = [param for name, param in net.named_parameters()
             if name not in ["fc.weight", "fc.bias"]]
trainer = torch.optim.SGD([{'params': params_1x},
                               {'params': net.fc.parameters(),
                                'lr': learning_rate * 10}],
                            lr=learning_rate, weight_decay=0.001)

param_1x这行代码选出不是fc层的weight和bias的其他参数。

而trainer代码实现对fc层的优化器设置10倍的学习率,param_1x里的参数则是默认。

刚开始看的时候不是很明白,于是去pytorch文档看了下:

 总之是学习到了,用字典的方式来指定特殊层的参数的学习率。

事实上在迁移学习中,我们还可以设定网络中某些层的参数不随训练而更新:

for param in finetune_net.parameters():
    param.requires_grad = False

参考资料:

torch.optim — PyTorch 1.12 documentation

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值