报错:RuntimeError: CUDA error: all CUDA-capable devices are busy or unavailable

运行程序时报错:

定位的错误是:D=torch.nn.DataParallel(discriminator(n_filters=32)).cuda(gpu_id)

本来以为是因为服务器上有4块显卡,GPU1,GPU2,GPU3的计算能力都是2.0,但是GPU0的计算能力是>3的,所以认为是调用的时候为每个GPU都分配一定的任务,所以才报错的.  但是 看其他框架下的代码直接使用XX.cuda()也是可以的..查了很多资料都没有解决方案.

有遇到过类似问题的,他们的原因是系统升级后,显卡驱动不能用了,所以要升级显卡驱动....但是我没有升级系统呀???

把函数改一改,将gpu_id作为全局变量,然后还是不行...

最后师弟将这两句函数改了,变成如下方式,就可以了....

gpu_id=0

D=discriminator(n_filters=32).cuda(gpu_id)
#D=torch.nn.DataParallel(discriminator(n_filters=32)).cuda(gpu_id)
G=generator(n_filters=32).cuda(gpu_id)
#G=torch.nn.DataParallel(generator(n_filters=32)).cuda(gpu_id)

我查了查DataParallel在pytorch中使用的,它的使用方法如下:

 可能是使用的格式不对吧.这样的操作可能是对于多个GPU可以分散任务,但是由于我的其他的GPU不能用,能用的只有1块,所以就会报错,还是直接使用单个GPU就好了...但是在单GPU的机器上跑就不会出错.

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值