pytorch模型与数据在GPU和CPU上移动

原文链接:https://blog.csdn.net/dcrmg/article/details/79503978
pytorch允许把在GPU上训练的模型加载到CPU上,也允许把在CPU上训练的模型加载到GPU上。

CPU->CPU,GPU->GPU

torch.load('gen_500000.pkl')

GPU->CPU

torch.load('xxx.pkl', map_location='cpu')  # pytorch0.4.0及以上版本

CPU->GPU1

torch.load('gen_500000.pkl', map_location=lambda storage, loc: storage.cuda(1))
#或者
torch.load('gen_500000.pkl', map_location={'cpu':'cuda:1'})

单机多GPU上训练的模型加载
在gpu或cpu上加载一个在多gpu上训练的模型时,会报类似如下错误:

Unexpected key(s) in state_dict: "module.pretrained.conv1.0.weight", "module.pretrained.conv1.1.weight"

这是因为在多gou上训练的模型在保存时候在参数名前多加了一个“module.”前缀,加载的时候把这个前缀去掉就行了:

model = get_model(args.model)
device = torch.device('cpu')
# device = torch.device('cuda:0')
state_dict = torch.load('xxx.pth', map_location=device)
 
from collections import OrderedDict
state_dict_new = OrderedDict()
for k, v in state_dict.items():
    name = k[7:]  # 去掉 `module.`
    state_dict_new[name] = v
 
model.load_state_dict(state_dict_new)
 
model.eval() #eval 模式
  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch-Mutex的CPUGPU版本之间的区别在于它们使用的锁的类型不同。CPU版本使用Python标准库中的threading.Lock来实现互斥锁,而GPU版本使用PyTorch中的torch.cuda.Lock来实现互斥锁。 因此,如果您的PyTorch模型是在CPU训练的,则应该使用CPU版本的PyTorch-Mutex;如果您的PyTorch模型是在GPU训练的,则应该使用GPU版本的PyTorch-Mutex。 以下是使用CPU版本的PyTorch-Mutex的示例代码: ``` from torch_mutex import Mutex mutex = Mutex() for epoch in range(num_epochs): for batch in data_loader: # 加锁 mutex.acquire() # 计算模型输出 output = model(batch) loss = loss_fn(output, target) # 更新模型参数 optimizer.zero_grad() loss.backward() optimizer.step() # 解锁 mutex.release() ``` 以下是使用GPU版本的PyTorch-Mutex的示例代码: ``` import torch from torch_mutex import Mutex mutex = Mutex() for epoch in range(num_epochs): for batch in data_loader: # 加锁 mutex.acquire() # 将输入和目标数据移动GPU上 input = batch[0].cuda() target = batch[1].cuda() # 计算模型输出 output = model(input) loss = loss_fn(output, target) # 更新模型参数 optimizer.zero_grad() loss.backward() optimizer.step() # 解锁 mutex.release() ``` 在上面的代码中,我们在使用GPU版本的PyTorch-Mutex时,首先需要将输入和目标数据移动GPU上。然后,在访问共享资源之前,我们调用mutex.acquire()方法来获取互斥锁。最后,在访问共享资源之后,我们调用mutex.release()方法来释放互斥锁。这样,我们就可以避免多个GPU核心同时访问共享资源,从而确保训练过程的正确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值