MLKP复现的那些坑以及cuda Success 11 vs.0错误解决

 

cudnn版本:

cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2

如下图 5.0.5  5.1.10版本都是可以的

CUDA8 搭配 CUDNN7是跑不通的,反正我是没运行成功。

 

用下面2行命令切换cudnn版本

sudo cp include/cudnn.h /usr/local/cuda/include/

sudo cp libcudnn* /usr/local/cuda/lib64/  (切换cudnn版本只需要这两行命令,因为cudnn是个加速库,拷贝进去直接调用就行了)

 

 

可以成功

 

 

修改arch架构后make: 一行注释引发的血案

这是个巨坑:  cuda Success 11 vs.0

 

如下图,算力和arch参数一定要适配自己的显卡。

 

爆炸,错误

也爆炸

 

注释掉20 21就爆炸:

 

我打印 net.name 是 VGG的模型,作者这里写的代码是要正则匹配 faster_rcnn,所以返回的是nonetype,也就没有group属性,所以我判断这里是作者自己加的测试代码,不是他github里面想测试的vgg model,于是我屏蔽掉就可以成功运行了。

 

 

还有model的名字要改,作者提供的是VOCdevkit,但是tool文件夹里面的py文件搜索的是VOCdevkit2007,所以要改过来才能运行。

改成VOCdevkit2007 ,这里也挖了一个坑。

 

注意执行命令的时候,和需要加载的模型名字一致,不要直接复制作者github上的代码,有错误,然而没人改正

 

作者提供的文件是缺省的,没有VGG16,。

 

做个记录,比较混乱,有问题欢迎留言,一起讨论学习。

 

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
当出现"CUDA out of memory. Tried to allocate 4.83 GiB"的错误时,这意味着在尝试分配4.83 GiB的显存时遇到了不足的问题。这种错误通常发生在使用GPU进行深度学习训练时。 解决这个问题的方法有几种。首先,你可以尝试减小batch_size来降低显存的使用量。通过减少每次迭代的样本数,可以减少显存的需求。另外,你可以尝试使用更小的模型或减少模型的复杂性,以减少内存的占用。 此外,还可以通过将一些中间结果从GPU内存中移动到主机内存(CPU)来释放显存。使用PyTorch的to()方法将张量转移到CPU上可以实现这一点。 另一个可能的解决方法是升级你的GPU显存,以便能够容纳更大的模型和批处理大小。 最后,如果你的torch版本与预训练模型的版本不匹配,也可能会导致此错误。请确保torch版本与模型版本兼容。 综上所述,要解决"CUDA out of memory"的错误,可以尝试以下方法: 1. 减小batch_size。 2. 缩小模型或减少模型复杂性。 3. 将一些中间结果从GPU内存中移动到CPU内存。 4. 升级GPU显存。 5. 确保torch版本与预训练模型版本兼容。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [复现monodepth2过程中碰到的错误3:RuntimeError: CUDA out of memory.](https://blog.csdn.net/weixin_51092297/article/details/123181936)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [记录CUDA error: out of memory的成功解决](https://blog.csdn.net/weixin_54800645/article/details/131055375)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [pytorch模型提示超出内存RuntimeError: CUDA out of memory.](https://download.csdn.net/download/weixin_38552305/14884908)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值