cuDNN error: CUDNN_STATUS_EXECUTION_FAILED和cuda的卸载和安装

cuDNN error: CUDNN_STATUS_EXECUTION_FAILED这种错误在网上的资料很少,有人说是因为python,pytorch,cuda等的版本不适配导致的,有人将python换成3.6版本的就解决了,但有的没有。
在我这里,原因出在显卡和cuda的不适配上,我用的RTX2080ti,本来装的是cuda9,就出现了上述bug,经过多次探索,将cuda换成10后,问题解决,估计是2080ti的显卡太新,所以在最新的cuda上使用比较好。

cuda9的卸载

这里需要说明的是,对于卸载cuda并重装(换版本),对于要不要卸载显卡驱动,网上的教程各有各的说法,我这里是没有卸载显卡驱动的,而且没有产生问题。但如果显卡驱动太老,不适配新的版本的cuda,则需要卸载显卡驱动,这个在安装新的cuda时会有提示的。

1.卸载cuda9.0

sudo /usr/local/cuda-8.0/bin/uninstall_cuda_9.0.pl

uninstall_cuda_9.0.pl是cuda自带的卸载工具
卸载之后,会发现 /usr/local/cuda-9.0目录下还有文件存在,这是cudnn文件,所以还需要将cuda-9.0文件删除干净

sudo rm -rf /usr/local/cuda-9.0

2.安装cuda10.0

在英伟达官网下载cuda10的安装文件,后缀为.run

sudo sh cuda_10.0.130_410.48_linux.run

然后一直回车刷服务条款,这个非常长,一直到100%
第一个选择接受:accept/decline/quit: accept
第二个选择n,即不安装新的驱动,如果你的旧驱动过于老而不能支持新的cuda,则需要卸载旧驱动再装这个
后面的三个均选择y

3.修改环境变量

打开主目录下的 .bashrc文件,进行修改。如果没有找到,则按Ctrl+H键显示隐藏文件。

export CUDA_HOME=/usr/local/cuda-10.0
export LD_LIBRARY_PATH=${CUDA_HOME}/lib64
export PATH=${CUDA_HOME}/bin:${PATH}

下面的命令才能使新的bashrc文件生效

source ~/.bashrc

输入nvcc -V来检查新版本的cuda是否安装成功

4.cudnn的升级

cudnn是与cuda配套的,所以也必须换
删除旧的cudnn文件:

sudo rm -rf /usr/local/cuda/include/cudnn.h
sudo rm -rf /usr/local/cuda/lib64/libcudnn

在官网下载新版本的cudnn,得到如下压缩包:
cudnn-10.0-linux-x64-v7.4.2.24
将其解压:

tar -zxvf cudnn-10.0-linux-x64-v7.4.2.24.tgz 

将cudnn安装包里的文件复制到cuda目录下:

cp cuda/lib64/* /usr/local/cuda-10.0/lib64/
cp cuda/include/* /usr/local/cuda-10.0/include/

查看当前的cudnn的版本:

cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
val RuntimeError: cuDNN error: CUDNN_STATUS_EXECUTION_FAILED是指在GPU上运行时遇到了cuDNN执行失败的错误。 cuDNN是一个用于深度学习的GPU加速库,CUDNN_STATUS_EXECUTION_FAILED表示cuDNN在执行过程中遇到了错误。 与此相关的报错信息中提到了CUBLAS_STATUS_EXECUTION_FAILED,它是cuBLAS库的错误,cuBLAS是一个用于线性代数计算的GPU加速库。当调用cublasLtMatmul函数时出现了CUBLAS_STATUS_EXECUTION_FAILED错误,这可能是由于矩阵乘法操作失败导致的。 如果在GPU上运行hugging face transformer时出现此错误,可能是由于GPU内存不足或者硬件驱动程序存在问题所致。您可以尝试以下解决方法: . 确保您的GPU驱动程序是最新的版本,并且与CUDAcuDNN库兼容。 2. 检查GPU内存使用情况,确保没有其他程序占用过多的内存。可以尝试减小模型的batch size或者使用更小的模型。 3. 如果仍然无法解决问题,可以尝试在没有GPU加速的情况下切换到CPU运行。但是根据您提供的信息,切换至CPU后出现了另一个报错,可能是由于输入文本长度超过了模型的embedding最大尺寸所致。您可以在tokenizer中设置max_len来进行截断(truncation),以使输入文本长度符合模型的要求。 请注意,解决这个问题可能需要进一步的调试和排查,您可以查看各种错误信息的详细描述以及相关库的文档来获取更多的帮助。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [【报错】RuntimeError: CUDA error: CUBLAS_STATUS_EXECUTION_FAILED when calling `cublasLtMatmul( ...](https://blog.csdn.net/weixin_43301333/article/details/129896278)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值