pytorch冻结参数后参数依旧在更新的问题

项目场景:

尝试训练一个模型,前200个epoch主要用于训练主干,后续50个epoch用于微调最后一层全连接层,之后可以将多个模型的全连接层抽出来拼到其中一个主干后面,用于多分支的投票。所以在训练200个epoch过后需要冻结前面的卷积层的参数,不参与参数更新。


问题描述

通过下方的代码,冻结除全连接层以外的所有层,并且重建了optimizer与scheduler,但是训练最终的模型通过netron查看参数,发现依旧有细微的差异,即模型没有完全冻结成功。

if epoch == 200:
    for name, param in model.named_parameters():
        if 'fc' not in name:
            param.requires_grad = False
        else:
            param.requires_grad = True
    optimizer = optim.Adam(filter(lambda p: p.requires_grad, model.parameters()), lr=optimizer.param_groups[-1]['lr'], weight_decay=0.0001)
    scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, 50)


解决方案:

我使用的是shuffleNetV2,经过查询资料,网络中的BN层需要手动进行冻结才能完成彻底的冻结,修改代码如下:

def set_batchnorm_to_eval(module):
        """将所有BatchNorm层设置为评估模式"""
        if isinstance(module, nn.BatchNorm2d) or isinstance(module, nn.BatchNorm1d):
            module.eval()
......
if epoch == 200:
    for name, param in model.named_parameters():
        if 'fc' not in name:
            param.requires_grad = False
        else:
            param.requires_grad = True
    model.apply(set_batchnorm_to_eval)
    optimizer = optim.Adam(filter(lambda p: p.requires_grad, model.parameters()), lr=optimizer.param_groups[-1]['lr'], weight_decay=0.0001)
    scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, 50)

 修改后问题解决,问题的关键在于某个层或者算子,结构不能简单的通过requires_grad = False进行冻结,甚至使用的优化器,也可能有影响。

参考:pytorch冻结参数训练的坑_主干网路如何冻结只训练一个-CSDN博客

  • 5
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值