pytorch加载模型torch.load报cuda out of memory解决方案

当服务器中有多张显卡时可能会出现这个问题。
模型参数加载:

model_recover = torch.load(args.model_recover_path)

报错如下:

RuntimeError: CUDA error: out of memory

原因:
当使用torch.load加载模型参数时,会默认加载在第一块GPU0上,当GPU0没有在使用时,问题不大,但是显存被占满时这时候就加载不了了。
解决方法:

model_recover = torch.load(args.model_recover_path, map_location={'cuda:0': 'cuda:2'})

指定GPU映射,将GPU0映射到GPU2(任意一张空闲显卡),这样原本默认加载在GPU0上的参数将会加载到GPU2中,问题解决。

参考:torch代码运行时显存溢出问题之问题四

  • 15
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
您遇到的问题是autoDL在加载模型时出现了CUDA内存不足的错误。这种错误通常是由于GPU内存不足而导致的。根据引用内容,有几种可能的解决方法可以尝试。 首先,根据的引用,如果您怀疑是因为之前的进程没有完全结束导致的错误,您可以尝试使用指令来彻底终止进程。但是需要注意的是,这种操作可能会中断所有正在运行的GPU程序,因此需要谨慎使用。 另一种解决方法是根据的引用,将权重加载到CPU,并让模型在CPU上进行加载。这将避免与GPU相关的内存错误。使用这种方法,您可以尝试将模型的权重加载到CPU上,然后再进行加载操作。 您可以尝试使用以下代码来解决这个问题: ```python import torch # 将模型加载到CPU device = torch.device('cpu') model = YourModel().to(device) # 加载权重 weights = torch.load('your_weights.pth', map_location=device) model.load_state_dict(weights) # 进行模型加载操作 output = model(input) ``` 请将"YourModel"替换为您实际使用的模型类的名称,并将"your_weights.pth"替换为实际的权重文件路径。通过将模型加载到CPU上,并在加载操作时使用CPU设备,您可以避免与GPU内存相关的错误。 希望这些信息对您有所帮助!<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [完美解決pytorch载入预训练权重时出现的CUDA error: out of memory](https://blog.csdn.net/Davidietop/article/details/126803809)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值