Python 解决报错 Could not load dynamic library ‘cudnn64_8.dll‘; dlerror: cudnn64_8.dll not found

目录

一、Could not load dynamic library 'cudnn64_8.dll'; dlerror: cudnn64_8.dll not found


一、Could not load dynamic library 'cudnn64_8.dll'; dlerror: cudnn64_8.dll not found

场景复现:在pycharm中运行代码时,报错

原因

  • 可能性1:cuda和cudnn版本不对
  • 可能性2:cudnn没有安装上

解决方法

(1)需要找到你安装的cuda位置,实在是不知道了,在命令行查找,输入set cuda即可

set cuda

此处,我的安装路径就是一种最常见的安装位置,

CUDA_PATH=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5
CUDA_PATH_V11_5=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5

然后到这个路径下找到bin文件,

打开里面确实没有cudnn64_8.dll文件。

(2)然后我们需要去下载我们所需的cudnn64_8.dll文件,

cuDNN地址如下,https://developer.nvidia.com/rdp/cudnn-download

不过要注意的是,我们需要注册一个账号,才可以进入到下载界面。大家可以放心注册的。

(3)然后将解压后的文件放入之前cmd找到的cuda路径下,

注意是将解压后的三个子文件夹(bin include 等)里的东西都加入到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5目录下

解压之后,

  • lib里的文件放到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5\lib
  • bin里的文件放到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5\bin
  • include 里的文件放到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5\include
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5

 

(4)并且重新在系统变量中环境变量中的path中添加以下三条新路径:

  • C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5\cudnn\include
  • C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5\cudnn\lib
  • C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5\cudnn\bin

ok,问题解决了。

### 关于 CUDA 动态链接库 `cudart64_110.dll` 的解决方案 当遇到虚拟环境中的 `CUDA cudart64_110.dll` 文件丢失或无法找到的情况时,通常是因为系统缺少对应的 CUDA 工具包版本,或者路径配置不正确。以下是详细的分析和解决办法: #### 1. **确认 CUDA 版本匹配** 如果当前使用的 Python 虚拟环境中依赖的是特定的 CUDA 和 cuDNN 版本,则需要确保所安装的 CUDA 驱动与之相适应。例如,在引用中提到应选用 `py3.7_cuda100_cudnn_7_0` 包以适配某些环境设置[^1]。因此,需先核实项目所需的 CUDA 版本。 - 如果目标是支持 CUDA 11.0 (对应文件名中的 `_110`),则应当下载并安装 NVIDIA 提供的 CUDA Toolkit 11.0。 #### 2. **检查本地是否存在所需 DLL** 通过以下方式验证计算机上是否已存在 `cudart64_110.dll`: - 打开命令提示符窗口; - 输入 `where cudart64_110.dll` 查看其位置;如果没有显示任何结果,则表明该文件缺失。 #### 3. **重新安装或更新 CUDA Toolkit** 假如发现上述 DLL 缺失,可以从官方资源页面手动获取相应组件: - 前往[NVIDIA 官方网站](https://developer.nvidia.com/cuda-toolkit-archive),选取适合操作系统的 CUDA Toolkit 11.0 下载链接完成安装过程。 - 此外,也可以单独提取必要动态库至指定目录下(比如 `%CONDA_PREFIX%\Library\bin`\ 或者其他被加入 PATH 环境变量的地方)。 #### 4. **调整环境变量配置** 即使已经具备正确的 CUDA 库文件,仍可能出现加载失败现象。这可能是由于操作系统未能识别到这些新增加的内容所致。为此建议执行如下步骤: - 将包含 `cudart64_110.dll` 的实际存储路径追加进全局环境变量 `PATH` 中去; - 对于 Anaconda 创建出来的独立工作区而言,可能还需要额外修改 `.condarc` 设置或是直接编辑启动脚本来显式声明相关参数。 #### 5. **测试 TensorFlow 是否正常运作** 一旦解决了底层硬件加速接口层面的问题之后,就可以进一步检验框架本身能否顺利初始化 GPU 设备了。这里给出一段基于 TensorFlow 的简单算例用于初步判断效果[^3]: ```python import tensorflow as tf a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a') b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b') with tf.device('/GPU:0'): c = tf.matmul(a, b) sess = tf.compat.v1.Session(config=tf.compat.v1.ConfigProto(log_device_placement=True)) print(sess.run(c)) ``` 以上代码片段会尝试将矩阵乘法运算分配给第一个可用图形处理器处理,并打印日志消息展示具体设备分配情况。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

水w

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值