一行代码解决PyTorch训练模型时突然出现的For debugging consider passing CUDA_LAUNCH_BLOCKING=1报错

一、问题描述

        今天在调试模型的代码,然后代码一直运行得好好地,就突然出现了一下的错误:

RuntimeError: CUDA error: invalid device ordinal
CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.

        觉得十分诡异,前面运行的时候没出现这个Error,但是后面点击运行的时候就出现了,而且多次点击运行,都会报的这个错。

        上面的错误大概就是说我的CUDA设备序号出错。例如,训练模型的机器上只有4张显卡,那么CUDA设备序号分别是0、1、2、3。当你在程序中使用4、5或者更加大的数字时,这个错误信息就会自动地报出来。

        令我觉得诡异的地方是,在我运行模型的机器中,明明有4个可以使用的CUDA设备,也就是拥有4张显卡,而我不能使用1、2、3对应的CUDA设备,然后就报了上面的这个错误。所以我觉得十分奇怪。

二、解决方法

        首先,我观察了我设置程序使用CUDA设备的代码:

os.environ['CUDA_VISIBLE_DEVICES'] = '%d' % m_gpu
torch.cuda.set_device(m_gpu)
torch.cuda.is_available()
torch.cuda.current_device()

        其中上边的m_gpu是设置CUDA设备序号的变量。

        然后我发现在设置CUDA设备序号时,如果调用了下面的代码,就不会出现上门的报错信息:

torch.cuda.device_count()

        最终,设置CUDA设备序号的代码改为:

torch.cuda.device_count()
os.environ['CUDA_VISIBLE_DEVICES'] = '%d' % m_gpu
torch.cuda.set_device(m_gpu)
torch.cuda.is_available()
torch.cuda.current_device()

        这样就解决了我上面所遇到的问题。

三、设备信息

        NVIDIA驱动:NVIDIA-SMI 515.65.01    Driver Version: 515.65.01    CUDA Version: 11.7

        Python版本:Python 3.6.9

        PyTorch版本:1.10.2

        Linux系统:Ubuntu 18.04.6 LTS (GNU/Linux 4.15.0-041500-generic x86_64)

  • 34
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 13
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

飞机火车巴雷特

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值