关于贫僧在使用PyTorch时遇到了runtime error(59):device-side assert triggered at XXX这样神奇的BUG的事

标题里的XXX是省略之后的文字的意思,不是真的“XXX”。

某天贫僧在训♂练模型的时候遇到了这个错误提示。其实这个错误提示很模糊(非常模糊),基本上是没有办法定位到出错的地方的,在查找资料之后发现了一下解决方法(在这里总结下):

1. 改为在CPU上运行

这是因为当模型在GPU上运行的时候其实是没办法显示出真正导致错误的地方的(按照PyTorch Dev的说法:“Because of the asynchronous nature of cuda, the assert might not point to a full correct stack trace pointing to where the assert was triggered from.”即这是CUDA的特性,他们也没办法),所以可以通过将模型改成在CPU上运行来检查出到底是哪里出错(因为CPU模式下会有更加细致的语法/程序检查)。但是这个方法通常是不可行的,因为可能训练的网络特别大,转到CPU上训练的话可能会花费很长时间,那么就应该尝试下面的方法。

2. 加入一行代码/命令启动脚本时在命令前加点料

词穷,不晓得该用除了“加点料”之外的什么词(还好语文老师早已多年未亲近,其中可能有的再也无法相见,随缘)。

回到正题,命令是:

CUDA_LAUNCH_BLOCKING=1 python script.py

如果读者正在使用命令来启动脚本的话可以试试用上面这个方式来启动脚本,然后看看报错信息,理论上可以看到更加准确的报错信息。

但是如果读者像贫僧一样是个Jupyter爱好者呢?那么就在各种import之后加入这一行就行了:

import os
os.environ['CUDA_LAUNCH_BLOCKING'] = "1"

这样基本上就可以定位到出错的地方。

如果还不行,就要依靠经验了:

经验判定法

检查Label是不是从0开始的

检查下Label是不是从0开始的(贫僧没有遇到这个问题,具体看一看RuntimeError: cuda runtime error (59) : device-side assert triggered when running transfer_learning)。

如果使用了Embedding层,检查参数

在这里插入图片描述
首先看下Embedding层的参数,看到那个num_embeddings了吗?要设置成你的字典的大小,但是要记住,一定是vocab_size + 1,而不是vocab_size,即要设置为字典大小+1

嗯。。。基本上就是这样,其实还有别的经验,但是贫僧没有找到(其实您老根本就是懒得找吧),所以就这样吧。

杂谈

近日,贫僧调试代码的时候不时遇到了“cuDNN error: CUDNN_STATUS_EXECUTION_FAILED”错误。这个错误其实挺奇怪的,有时最简单的处理方法就是重新运行代码,这个错误会自己消失。可能与jupyter的内存管理机制有关,具体原因未知。

参考

RuntimeError: cuda runtime error (59) 官方PyTorch论坛上的问题,其实读者如果遇到问题的话也可以试试在上面提问(不要害羞,他们应该不会穿过网线来打你的,当然,在这方面贫僧可不敢做任何担保)
Debugging CUDA device-side assert in PyTorch这篇提到了Jupyter中怎么通过加入os.environ['CUDA_LAUNCH_BLOCKING'] = "1"来找哪里出了错
RuntimeError: cuda runtime error (59) : device-side assert triggered when running transfer_learning
pytorch runtime error(59):device-side assert triggered at XXX这篇则是关于词表(Embedding层)设置出错导致了这个bug

  • 23
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
yolact RuntimeError: CUDA error: device-side assert triggered是指在运行yolact模型出现了CUDA错误,具体为设备端断言触发。根据引用[3]所述,这个错误通常是由于代码中出现了索引越界导致的。然而,定位到报错位置并不能直接找到错误的根本原因,也无法从报错信息中得知具体的解决方案。 为了解决这个问题,可以尝试使用CPU而非GPU运行代码。这样一来,就可以通过报错信息较容易地找到错误的位置和原因。在将代码切换回GPU运行之前,先解决错误,并确保代码不会出现索引越界的问题。 另外,根据引用的建议,还可以通过调整batch_size的大小来减少显存的使用量。此外,使用item()属性来获取torch变量的标量值也可以减少显存的占用。 综上所述,解决yolact RuntimeError: CUDA error: device-side assert triggered的方法是: 1. 尝试使用CPU而非GPU运行代码,通过报错信息定位错误位置和原因,并解决索引越界问题。 2. 调整batch_size的大小以减少显存的使用量。 3. 使用item()属性来获取torch变量的标量值,减少显存的占用。 请根据具体情况尝试这些解决方法,以解决该错误。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [RuntimeError: CUDA error: device-side assert triggered](https://blog.csdn.net/HPU_CPD/article/details/126592019)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [pytorch模型提示超出内存RuntimeError: CUDA out of memory.](https://download.csdn.net/download/weixin_38552305/14884908)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [RuntimeError: CUDA error: device-side assert triggered Pytorch框架代码运行错误解决方案(亲测有效!...](https://blog.csdn.net/weixin_42112050/article/details/120455407)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值