PyTorch在CPU上加载预先训练好的GPU模型

有时候我们在CPU上训练的模型,因为一些原因,切换到GPU上,或者在GPU上训练的模型,因为条件限制,切换到CPU上。 GPU上训练模型时,将权重加载到CPU的最佳方式是什么?今天我们来讨论一下:
参考

从官方文档中我们可以看到如下方法

torch.load('tensors.pth')
# 把所有的张量加载到CPU中
torch.load('tensors.pth', map_location=lambda storage, loc: storage)
# 把所有的张量加载到GPU 1中
torch.load('tensors.pth', map_location=lambda storage, loc: storage.cuda(1))
# 把张量从GPU 1 移动到 GPU 0
torch.load('tensors.pth', map_location={'cuda:1':'cuda:0'})

在cpu上加载预先训练好的GPU模型,有一种强制所有GPU张量在CPU中的方式:

torch.load('my_file.pth', map_location=lambda storage, loc: storage)

上述代码只有在模型在一个GPU上训练时才起作用。如果我在多个GPU上训练我的模型,保存它,然后尝试在CPU上加载,我得到这个错误:KeyError: ‘unexpected key “module.conv1.weight” in state_dict’ 如何解决?

您可能已经使用模型保存了模型nn.DataParallel,该模型将模型存储在该模型中module,而现在您正试图加载模型DataParallel。您可以nn.DataParallel在网络中暂时添加一个加载目的,也可以加载权重文件,创建一个没有module前缀的新的有序字典,然后加载它。

# create new OrderedDict that does not contain `module.`
from collections import OrderedDict

# original saved file with DataParallel
state_dict = torch.load('myfile.pth')
new_state_dict = OrderedDict()
for k, v in state_dict.items():
    name = k[7:] # remove `module.`
    new_state_dict[name] = v
# load params
model.load_state_dict(new_state_dict)
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值