【CUDA】cudnn+CUDA10.0+VS2017+win10详细配置(永久配置)


安装过程(按照默认安装即可)

在这里插入图片描述
在这里插入图片描述

设置环境变量:

安装结束后,我们在计算机上点右键,打开属性->高级系统设置->环境变量,可以看到系统中多了CUDA_PATH和CUDA_PATH_V9_0两个环境变量。

在这里插入图片描述

我们还需要在环境变量中添加如下几个变量:

CUDA_SDK_PATH = C:\ProgramData\NVIDIA Corporation\CUDA Samples\v10.0 
CUDA_LIB_PATH = %CUDA_PATH%\lib\x64 
CUDA_BIN_PATH = %CUDA_PATH%\bin 
CUDA_SDK_BIN_PATH = %CUDA_SDK_PATH%\bin\win64 
CUDA_SDK_LIB_PATH = %CUDA_SDK_PATH%\common\lib\x64 

使用cmd到路径打开例子

在这里插入图片描述
下一步是监测cuda安装成功与否:

在cuda安装文件夹中有deviceQuery.exe 和 bandwidthTest.exe两个程序。首先启动cmd DOS命令窗口,默认进来的是c:\users\Admistrator>路径,输入 cd … 两次,来到c:目录下输入dir 找到安装的cuda文件夹。
在这里插入图片描述

分别输入deviceQuery.exe 和 bandwidthTest.exe,运行结果如图所示。Rsult=PASS则说明通过,反之,Rsult=Fail 则需要重新安装。

VS2017配置:

1.打开vs2017,我们可以观察到,在VS2017模板一栏下方出现了“NVIDIA/CUDA 10.0”。创建一个空win32程序,即cuda_test项目。
在这里插入图片描述
2,源文件>> 添加>>新建项(cuda_test);设置成release,x64(其他方式类似)
在这里插入图片描述
在这里插入图片描述
视图>>其他窗口>>属性管理器>> Release | 64 >> Microsoft.Cpp.x64.user

a) 通用属性>>VC++ 目录>>包含目录:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\include
b)通用属性>>VC++ 目录>>库目录:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\lib\x64
c)链接器–>输入–>附加依赖项

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\lib\x64
里面所有以.lib结束的文件都添加
可以cmd进入以上路径 用DIR *.lib /B > 1.txt ,复制粘贴即可。

// CUDA runtime 库 + CUBLAS 库   
#include "cuda_runtime.h"  
#include "cublas_v2.h"  

#include <time.h>  
#include <iostream>  

using namespace std;  

// 定义测试矩阵的维度  
int const M = 5;  
int const N = 10;  

int main()   
{     
    // 定义状态变量  
    cublasStatus_t status;  

    // 在 内存 中为将要计算的矩阵开辟空间  
    float *h_A = (float*)malloc (N*M*sizeof(float));  
    float *h_B = (float*)malloc (N*M*sizeof(float));  

    // 在 内存 中为将要存放运算结果的矩阵开辟空间  
    float *h_C = (float*)malloc (M*M*sizeof(float));  

    // 为待运算矩阵的元素赋予 0-10 范围内的随机数  
    for (int i=0; i<N*M; i++) {  
        h_A[i] = (float)(rand()%10+1);  
        h_B[i] = (float)(rand()%10+1);  

    }  

    // 打印待测试的矩阵  
    cout << "矩阵 A :" << endl;  
    for (int i=0; i<N*M; i++){  
        cout << h_A[i] << " ";  
        if ((i+1)%N == 0) cout << endl;  
    }  
    cout << endl;  
    cout << "矩阵 B :" << endl;  
    for (int i=0; i<N*M; i++){  
        cout << h_B[i] << " ";  
        if ((i+1)%M == 0) cout << endl;  
    }  
    cout << endl;  

    /* 
    ** GPU 计算矩阵相乘 
    */  

    // 创建并初始化 CUBLAS 库对象  
    cublasHandle_t handle;  
    status = cublasCreate(&handle);  

    if (status != CUBLAS_STATUS_SUCCESS)  
    {  
        if (status == CUBLAS_STATUS_NOT_INITIALIZED) {  
            cout << "CUBLAS 对象实例化出错" << endl;  
        }  
        getchar ();  
        return EXIT_FAILURE;  
    }  

    float *d_A, *d_B, *d_C;  
    // 在 显存 中为将要计算的矩阵开辟空间  
    cudaMalloc (  
        (void**)&d_A,    // 指向开辟的空间的指针  
        N*M * sizeof(float)    // 需要开辟空间的字节数  
    );  
    cudaMalloc (  
        (void**)&d_B,      
        N*M * sizeof(float)      
    );  

    // 在 显存 中为将要存放运算结果的矩阵开辟空间  
    cudaMalloc (  
        (void**)&d_C,  
        M*M * sizeof(float)      
    );  

    // 将矩阵数据传递进 显存 中已经开辟好了的空间  
    cublasSetVector (  
        N*M,    // 要存入显存的元素个数  
        sizeof(float),    // 每个元素大小  
        h_A,    // 主机端起始地址  
        1,    // 连续元素之间的存储间隔  
        d_A,    // GPU 端起始地址  
        1    // 连续元素之间的存储间隔  
    );  
    cublasSetVector (  
        N*M,   
        sizeof(float),   
        h_B,   
        1,   
        d_B,   
        1  
    );  

    // 同步函数  
    cudaDeviceSynchronize();  

    // 传递进矩阵相乘函数中的参数,具体含义请参考函数手册。  
    float a=1; float b=0;  
    // 矩阵相乘。该函数必然将数组解析成列优先数组  
    cublasSgemm (  
        handle,    // blas 库对象   
        CUBLAS_OP_T,    // 矩阵 A 属性参数  
        CUBLAS_OP_T,    // 矩阵 B 属性参数  
        M,    // A, C 的行数   
        M,    // B, C 的列数  
        N,    // A 的列数和 B 的行数  
        &a,    // 运算式的 α 值  
        d_A,    // A 在显存中的地址  
        N,    // lda  
        d_B,    // B 在显存中的地址  
        M,    // ldb  
        &b,    // 运算式的 β 值  
        d_C,    // C 在显存中的地址(结果矩阵)  
        M    // ldc  
    );  

    // 同步函数  
    cudaDeviceSynchronize();  

    // 从 显存 中取出运算结果至 内存中去  
    cublasGetVector (  
        M*M,    //  要取出元素的个数  
        sizeof(float),    // 每个元素大小  
        d_C,    // GPU 端起始地址  
        1,    // 连续元素之间的存储间隔  
        h_C,    // 主机端起始地址  
        1    // 连续元素之间的存储间隔  
    );  

    // 打印运算结果  
    cout << "计算结果的转置 ( (A*B)的转置 ):" << endl;  

    for (int i=0;i<M*M; i++){  
            cout << h_C[i] << " ";  
            if ((i+1)%M == 0) cout << endl;  
    }  

    // 清理掉使用过的内存  
    free (h_A);  
    free (h_B);  
    free (h_C);  
    cudaFree (d_A);  
    cudaFree (d_B);  
    cudaFree (d_C);  

    // 释放 CUBLAS 库对象  
    cublasDestroy (handle);  

    getchar();  

    return 0;  
}  

运行,出现以下结果即为成功

在这里插入图片描述

下载对应版本的cudnn,将bin、include、lib三个文件夹覆盖粘贴至CUDA安装目录即可

  • 2
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
### 回答1: OpenCV是一个开源的计算机视觉和机器学习库,可以方便地处理图像和视频。而CUDA(Compute Unified Device Architecture)是由NVIDIA开发的一种并行计算架构,可以加速图形处理器(GPU)上的计算任务。 OpenCV 4.5.1是OpenCV的一个版本,它提供了丰富的功能和算法,用于图像和视频处理、特征提取、目标检测等任务。这个版本可以在Windows 10操作系统上使用,并且可以与Visual Studio 2017集成,提供开发环境和调试工具。 CUDA 10.0是NVIDIA的一个版本,它支持NVIDIA GPU上的并行计算任务。它允许开发人员使用C语言、C++或CUDA自己的扩展语言编写并行计算代码,以加速计算密集型任务。例如,在图像处理中,可以使用CUDA加速OpenCV算法,从而提高计算性能。 而cuDNNCUDA Deep Neural Network library)是NVIDIA专门为深度学习任务开发的一个库。它提供了一组高性能的深度神经网络的基本操作和优化算法,可以与CUDA和OpenCV结合使用。 综上所述,OpenCV 4.5.1可以与CUDA 10.0cuDNN 7.6.0集成使用。开发者可以在Visual Studio 2017中使用这些工具和库进行图像处理和机器学习任务的开发和优化。通过使用CUDA加速,可以提高计算性能,而cuDNN可以提供深度学习任务所需的算法和操作。 ### 回答2: OpenCV 4.5.1是一个计算机视觉库,用于在计算机视觉和机器学习项目中进行图像和视频处理。VS2017是一个集成开发环境(IDE),用于Windows操作系统上的软件开发。CUDA(Compute Unified Device Architecture)是一个用于GPU计算的并行计算平台和API模型。CUDNN是NVIDIA深度神经网络库,用于在GPU上加速深度学习任务。 在Windows 10上使用VS2017来编译OpenCV 4.5.1,并在CUDA 10.0CUDNN 7.6.0的支持下进行构建可以提供更好的计算性能和加速。CUDA 10.0提供了与CUDA架构和驱动程序的兼容性,并支持许多NVIDIA GPU。CUDNN 7.6.0是基于CUDA的深度神经网络库,可以加速深度学习任务的训练和推理。 使用VS2017编译OpenCV可以让开发者方便地在Windows平台上进行开发和调试。VS2017提供了强大的集成开发环境,它可以帮助开发者编写、调试和测试程序。通过配置CUDA 10.0CUDNN 7.6.0来支持OpenCV的GPU加速,可以进一步提高图像和视频处理的速度和效率。 总结来说,使用OpenCV 4.5.1、VS2017、Windows 10、CUDA 10.0CUDNN 7.6.0可以实现在Windows平台上的高效计算机视觉和机器学习开发。这种配置可以提供更好的性能和加速,特别是在需要处理大量图像和视频、进行深度学习任务的情况下。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值