ML-CUDA out of memory (torch.load())解决

ML-CUDA out of memory (torch.load())解决

CUDA out of memory-torch.load

1. 杂话

 在上次的CUDA out of memory的问题解决之后(CUDA out of memory (Training)解决),这次又是遇到了新的问题。
 使用Pytorch的朋友可能都知道,我们是可以使用torch.load()来加载我们之前训练好的模型的。

2. 问题

 于是今天,我在使用torch.load()的时候就又碰到了爆显存的问题

 但是我仔细看了一下我的代码,我在加载模型的时候,好像也没有用到那块被占用的显卡啊
(自从上次的报错之后,我和实验室的另一位同学达成了一人使用一块显卡的和平相处协议)

 感谢这位大哥的帖子,帮我解决了问题pytorch加载模型torch.load报cuda out of memory解决方案

3. 解决

 简单来说就是,在torch.save()得到的pth文件里,会保存着你之前是在那张显卡训练这个模型的信息,而你在加载这个模型的时候,就会经过这张显卡,这个时候,哪怕你最终不是使用这张显卡计算,但是这张显卡现在是被占用的话,就会报CUDA out of memory的错误。。。

 也就是说,因为我和大哥一人一张显卡,之前我一直都是在cuda:1进行训练的,但是今天1卡被大哥用了,就算我把device改为cuda:0,在加载模型的时候也还是会报错,这个时候你就需要在代码中加入一个参数,来直接把模型映射到你要使用的显卡上

于是代码就从
torch.load(resume_path)
变成了
torch.load(resume_path, map_location = 'cuda:0')

 这样问题就解决咯

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值