pytorch跨设备保存和加载模型(变量类型(cpu/gpu)不匹配原因之一)

原官网教程地址

 

跨设备保存和加载模型

保存在GPU上,在CPU上加载

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device('cpu')
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location=device))

在使用GPU训练的CPU上加载模型时,请传递 torch.device('cpu')map_location函数中的 torch.load()参数。在这种情况下,使用map_location参数将张量下面的存储器动态地重新映射到CPU设备 。

保存在GPU上,在GPU上加载

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model

在GPU上训练并保存在GPU上的模型时,只需将初始化model模型转换为CUDA优化模型即可model.to(torch.device('cuda'))。此外,请务必.to(torch.device('cuda'))在所有模型输入上使用该 功能来准备模型的数据。请注意,调用my_tensor.to(device) 返回my_tensorGPU上的新副本。它不会覆盖 my_tensor。因此,请记住手动覆盖张量: 。my_tensor = my_tensor.to(torch.device('cuda'))

保存在CPU,在GPU上加载

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location="cuda:0"))  # Choose whatever GPU device number you want
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model

在已训练并保存在CPU上的GPU上加载模型时,请将map_location函数中的参数设置 torch.load()为 cuda:device_id。这会将模型加载到给定的GPU设备。接下来,请务必调用model.to(torch.device('cuda'))将模型的参数张量转换为CUDA张量。最后,确保.to(torch.device('cuda'))在所有模型输入上使用该 函数来为CUDA优化模型准备数据。请注意,调用 my_tensor.to(device)返回my_tensorGPU上的新副本。它不会覆盖my_tensor。因此,请记住手动覆盖张量:。my_tensor = my_tensor.to(torch.device('cuda'))

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值