事情是这样的,我下载一个用 python 做表情识别的 demo,打算跑一下,但是配置好环境之后发现,demo 里应用的 Pytorch 是GPU 版的。我的显卡是支持 GPU 运算的,但是,我去 NVIDIA 官网下载 CUDA 包的时候发现下载不了,不能连接到 NVIDIA 的服务器(这是为啥呢,难道不开放下载吗?)于是就修改了程序,改成 CPU 版本。这个过程比我想象要简单许多。下面说一下过程:
-
# 将torch.load()函数中加载的数据后面加一个选择CPU运算的参数:map_location='cpu'
-
torch.load(xxxxxxx ,map_location=
'cpu' )
之后再把所有涉及 GPU 运算的语句注释掉就可以了。
**具体如下:**
pytorch将cpu训练好的模型参数load到gpu上,或者gpu->cpu上
假设我们只保存了模型的参数(model.state_dict())到文件名为modelparameters.pth, model = Net()
1. cpu -> cpu或者gpu -> gpu:
checkpoint = torch.load('modelparameters.pth')
model.load_state_dict(checkpoint)
2. cpu -> gpu 1
torch.load('modelparameters.pth', map_location=lambda storage, loc: storage.cuda(1))
3. gpu 1 -> gpu 0
torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'})
4. gpu -> cpu
torch.load('modelparameters.pth', map_location=lambda storage, loc: storage)
或者:
如果出现这个报错
RuntimeError: Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False.
If you are running on a CPU-only machine, please use torch.load with map_location='cpu' to map your storages to the CPU.
torch.load(opt.model,map_location='cpu')