Pytorch中自定义(修改)的模型加载所需部分预训练模型参数并冻结

本文部分参考https://zhuanlan.zhihu.com/p/34147880

一.此法比较万能,就根据自己模型的参数来加载预训练模型参数,同名就赋值。如果自己在原模型上加了些层则不会加载

dict_trained=torch.load(self.args.load_path, map_location=torch.device('cpu'))
dict_new=model.state_dict()
# 1. filter out unnecessary keys
dict_trained = {k: v for k, v in dict_trained.items() if k in dict_new}
# 2. overwrite entries in the existing state dict
model_dict.update(dict_trained)
model.load_state_dict(dict_new)

二. 这个则就复杂不少,按自己所需进行更改,比如我的,就是本模型增加了四层’dense’, ‘unary_affine’, ‘binary_affine’, ‘classifier’,通过j+=8,跳过他们的weight和bias,这个可以参考权重衰减。同时将原模型参数中’crf’部分不加载。

dict_trained = torch.load(self.args.load_path, map_location=torch.device('cpu'))
dict_new = self.model.state_dict().copy()
trained_list = list(dict_trained.keys())
new_list = list(dict_new.keys())
j = 0
no_loda = {'dense', 'unary_affine', 'binary_affine', 'classifier'}
for i in range(len(trained_list)):
     flag = False
     if 'crf' in trained_list[i]:
         continue
     for nd in no_loda:
         if nd in new_list[j] and 'bert' not in new_list[j]:
             flag = True
     if flag:
         j += 8  # no_loda的dense和bias掠过
     else:
         dict_new[new_list[j]] = dict_trained[trained_list[i]]
         if new_list[j] != trained_list[i]:
             print("i:{},new_state_dict: {}  trained state_dict: {}不一致".format(i, new_list[j], trained_list[i]))
     j += 1 #keys不对齐
model.load_state_dict(dict_new)

后面了解到有一种更简单的方法:

就是当你设置好你自己的模型后,如果仅想使用预训练模型相同结构处的参数,即在加载的时候将参数strict设置为False即可。该参数值默认为True,表示预训练模型的层和自己定义的网络结构层严格对应相等(比如层名和维度),否则无法加载,实现如下:

model.load_state_dict(torch.load(self.args.load_path, strict=False))

PS: 遇到错了,不妨把自己所修改模型参数的keys和加载模型参数的keys打印下来看看,对症下药

三.冻结这几层参数

简单来说就是

for k in model.paramers:
	k.requires_grad=False

方法很多,这里用和上面方法对应的冻结方法

建议看一下
https://discuss.pytorch.org/t/how-the-pytorch-freeze-network-in-some-layers-only-the-rest-of-the-training/7088
或者
https://discuss.pytorch.org/t/correct-way-to-freeze-layers/26714
或者
对应的,在训练时候,optimizer里面只能更新requires_grad = True的参数,于是

optimizer = torch.optim.Adam( filter(lambda p: p.requires_grad, net.parameters(),lr) )
  • 4
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch是一个功能强大的机器学习框架。它使用动态计算图和高效的自动微分来加速深度学习。在实际编码的过程,我们经常会使用预训练模型来加速模型训练和进一步提升模型准确率,不过一些时候我们并不需要整个预训练模型的所有参数来进行训练,而是只需要加载预训练模型部分参数。那么在PyTorch,我们要如何来加载预训练模型部分参数呢? 要想加载预训练模型部分参数,在PyTorch,我们可以使用load_state_dict()函数实现。load_state_dict()函数在PyTorch是将参数拷贝到新模型的函数,新模型预训练模型的网络结构应该是相同的。然后我们可以通过load_state_dict()函数的参数prefix和exclude来实现部分参数加载。prefix参数是指定了预训练模型需要加载参数的前缀,而exclude参数是指定了我们不需要加载参数。 例如,我们有一个预训练模型‘resnet18.pth’,它包含了resnet18模型在imagenet上训练好的模型参数。我们想要使用这个模型来进行一些迁移学习,那只需要加载resnet18最后一层fc层之前的所有模型参数,而不需要加载最后一层fc层的权重。那么,我们可以通过以下代码来实现: ``` import torch.utils.model_zoo as model_zoo import torchvision.models as models # 定义一个resnet18模型 resnet18 = models.resnet18(pretrained=False) # 加载预训练模型的所有参数 model_url = 'https://download.pytorch.org/models/resnet18-5c106cde.pth' resnet18.load_state_dict(model_zoo.load_url(model_url)) # 获取所有要加载参数的名字 params_to_update = [] for name, param in resnet18.named_parameters(): if 'fc' not in name: params_to_update.append(name) # 加载部分预训练模型参数 state_dict = model_zoo.load_url(model_url) model_dict = resnet18.state_dict() for name, value in state_dict.items(): if name.startswith(tuple(params_to_update)): model_dict.update({name: value}) resnet18.load_state_dict(model_dict) ``` 上述代码先是定义了一个resnet18模型,然后加载resnet18预训练模型的所有参数。通过获取所有需要加载参数的名字,然后将其加载到新模型,从而实现了加载预训练模型部分参数的目的。 总结: 通过使用load_state_dict()函数的prefix和exclude参数,在PyTorch实现了对预训练模型部分参数加载。这将使我们在使用预训练模型时更加灵活和高效。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值