RuntimeError: GET was unable to find an engine to execute this computation

文章讲述了在多人使用服务器时,因cudnn版本从8.5.0更新到8.0.5导致的torch报错问题。作者提供了检测torch和CUDA版本的方法,并介绍了如何检查cudnn可用性以及修复此问题的步骤,涉及NVIDIA官网资源和文件操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

摘要:在接着Omnipose项目后,多人使用服务器的条件下,有人更改了cudnn的版本由8.5.0换为了8.0.5导致torch报错,这个错误很难查出,因为测试cuda与torch、torchision、torchaudio版本的代码全部正常。现在提出一种检测方法。

【1】报错内容如下:网上很多人说是torch与cuda版本不兼容

【2】检测torch和cuda是否能用,显示能用

import torch
print(torch.__version__)
print(torch.cuda.is_available())

【3】试试更细节的信息,更没有问题,这说明torch与cuda版本是没有问题的

import torch
print(torch.cuda.is_available())

num_gpu= 1
# Decide which device we want to run on
device = torch.device("cuda:0" if (torch.cuda.is_available() and num_gpu > 0) else "cpu")
print(device)
print(torch.cuda.get_device_name(0))
print(torch.rand(3,3).cuda())

【4】检查cudnn是否可用

print(torch.backends.cudnn.version())

运行时的错误翻译如下图:

【5】修复问题,下载cudnn8.5.0

NVIDIA官网

下载后解压缩,进入到解压缩的文件下里面,然后在当前文件夹下打开终端输入以下:

sudo cp include/cudnn.h    /usr/local/cuda/include
sudo cp lib/libcudnn*    /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn.h   /usr/local/cuda/lib64/libcudnn*

再次运行,解决问题。

评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值