pytorch加载网络权重并冻结部分权重

需求

构建一个新的网络,加载一个已经训练好的网络的公共部分。

解决

import torch
from UnetModelsCuaseNotPadding_TwoStreamT2 import CRN_Net

def fix_bn(m):
    classname = m.__class__.__name__
    if classname.find('BatchNorm') != -1:
        m.eval()  
model = CRN_Net()
pretext_model = torch.load('../preTrain.pth.tar',"cpu").state_dict()
model_dict = model.state_dict()
print('new model',len(model_dict))
print('old model',len(pretext_model))        
#load part weight
state_dict = {k:v for k,v in pretext_model.items() if k in model_dict.keys()} #load same name layer weiget
dict_name = list(state_dict)
print('same pam',len(dict_name))
model_dict.update(state_dict)
model.load_state_dict(model_dict) 

#frozen part weight
for i,p in enumerate(model.parameters()):
    if i < 64:
        p.requires_grad = False 
        
# fix batchnorm
model.train()
model.apply(fix_bn) 

for name, p in model.named_parameters():
    print(f'{name}:\t{p.requires_grad}')```

值得注意的的是上面的64是加载公共部分的参数,其中不包括BN层的running_mean和running_var,所以自己需要认真和对下在确定。在训练的时候需要把BN层的所有参数都冻结上。

参考

pytorch那些坑——你确定你真的冻结了BN层

  • 3
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值