Win10下搭建Vs2017+CUDA开发环境

150 篇文章 2 订阅

 最近开始进行机器学习相关的学习,TensorFlow下CPU的计算速度实在是不理想,需要引入CUDA对于GPU的支持,由于已经有了的Vs2017的环境,在此基础上安装CUDA9.1版本碰到了一些小问题,在此跟大家分享其中的一些坑。

        CUDA可以在NVIDIA官网根据自己的操作系统以及需要的版本进行下载,下载后在安装的过程中,建议使用默认安装路径,安装过程中如果出现错误,请不要着急点击关闭按钮,可以在安装的组件中查看是具体哪个组件发生了错误。如果是驱动程序的问题,建议下载NVIDIA Geforce对显卡驱动程序进行更新后重试,如果是提示Visual Studio Imgration出现错误,请先卸载Vs 2017后再安装Cuda(这个问题困扰了笔者3天的时间,在网上找了各种方法尝试都没有用,最后无奈重装了vs2017,如果有更好的解决办法欢迎留言)。

        安装完成后,需要对环境变量进行配置,需要添加的环境变量如下图所示:

 

        接下来需要对VS 2017进行配置,本人是最新版的vs2017,在cuda的头文件host.config中定义了对于编译器版本的支持范围,cuda9.1默认支持到VC 140,本人尝试了修改头文件以避免版本检查,不过新版的VC仍然无法编译通过,因此只能使用vs installer 安装了vs2015 V140版本的编译器:

然后用vs打开工程,在相应的项目上使用VS2015(v140)平台工具集:

至此即可正常编译(有11个项目编译失败是因为需要DirectX的开发库,本人并不需要因此没有关注,需要的朋友可以自行安装尝试)。

对于具体的cuda配置相关,可以参考下面的文章:

一、新建项目

  打开VS2017 → 新建项目 → Win32控制台应用程序 → “空项目”打钩

二、调整配置管理器平台类型

  右键项目 → 属性 → 配置管理器 → 全改为“x64”

  

三、配置生成属性

  右键项目 → 生成依赖项 → 生成自定义 → 勾选“CUDA 9.0XXX”

  

三、配置基本库目录

  注意:后续步骤中出现的目录地址需取决于你当前的CUDA版本及安装路径

  右键项目 → 属性 → 配置属性 → VC++目录 → 包含目录,添加以下目录:

  • C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\include
  • C:\ProgramData\NVIDIA Corporation\CUDA Samples\v9.0\common\inc

  …… → 库目录,添加以下目录:

  • C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\lib\x64
  • C:\ProgramData\NVIDIA Corporation\CUDA Samples\v9.0\common\lib\x64

  

四、配置CUDA静态链接库路径

  右键项目 → 属性 → 配置属性 → 链接器 → 常规 → 附加库目录,添加以下目录:

  • $(CUDA_PATH_V9_0)\lib\$(Platform)

  

五、选用CUDA静态链接库

  右键项目 → 属性 → 配置属性 → 链接器 → 输入 → 附加依赖项,添加以下库:

  • cublas.lib;cublas_device.lib;cuda.lib;cudadevrt.lib;cudart.lib;cudart_static.lib;cufft.lib;cufftw.lib;curand.lib;cusolver.lib;cusparse.lib;nppc.lib;nppial.lib;nppicc.lib;nppicom.lib;nppidei.lib;nppif.lib;nppig.lib;nppim.lib;nppist.lib;nppisu.lib;nppitc.lib;npps.lib;nvblas.lib;nvcuvid.lib;nvgraph.lib;nvml.lib;nvrtc.lib;OpenCL.lib;
    以上为 “第三步” 中添加的库目录 “C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\lib\x64” 中的库!
  • 注意:kernel32.lib;user32.lib;gdi32.lib;winspool.lib;comdlg32.lib;advapi32.lib;shell32.lib;ole32.lib;oleaut32.lib;uuid.lib;odbc32.lib;odbccp32.lib;%(AdditionalDependencies)
    这些库为原有!

六、配置源码文件风格

  右键源文件 → 添加 → 新建项 → 选择 “CUDA C/C++ File”

  右键 “xxx.cu" 源文件 → 属性 → 配置属性 → 常规 → 项类型 → 设置为“CUDA C/C++”

  

七、测试程序

#include "cuda_runtime.h"
#include "device_launch_parameters.h"
#include <stdio.h>

int main() {
    int deviceCount;
    cudaGetDeviceCount(&deviceCount);

    int dev;
    for (dev = 0; dev < deviceCount; dev++)
    {
        int driver_version(0), runtime_version(0);
        cudaDeviceProp deviceProp;
        cudaGetDeviceProperties(&deviceProp, dev);
        if (dev == 0)
            if (deviceProp.minor = 9999 && deviceProp.major == 9999)
                printf("\n");
        printf("\nDevice%d:\"%s\"\n", dev, deviceProp.name);
        cudaDriverGetVersion(&driver_version);
        printf("CUDA驱动版本:                                   %d.%d\n", driver_version / 1000, (driver_version % 1000) / 10);
        cudaRuntimeGetVersion(&runtime_version);
        printf("CUDA运行时版本:                                 %d.%d\n", runtime_version / 1000, (runtime_version % 1000) / 10);
        printf("设备计算能力:                                   %d.%d\n", deviceProp.major, deviceProp.minor);
        printf("Total amount of Global Memory:                  %u bytes\n", deviceProp.totalGlobalMem);
        printf("Number of SMs:                                  %d\n", deviceProp.multiProcessorCount);
        printf("Total amount of Constant Memory:                %u bytes\n", deviceProp.totalConstMem);
        printf("Total amount of Shared Memory per block:        %u bytes\n", deviceProp.sharedMemPerBlock);
        printf("Total number of registers available per block:  %d\n", deviceProp.regsPerBlock);
        printf("Warp size:                                      %d\n", deviceProp.warpSize);
        printf("Maximum number of threads per SM:               %d\n", deviceProp.maxThreadsPerMultiProcessor);
        printf("Maximum number of threads per block:            %d\n", deviceProp.maxThreadsPerBlock);
        printf("Maximum size of each dimension of a block:      %d x %d x %d\n", deviceProp.maxThreadsDim[0],
            deviceProp.maxThreadsDim[1],
            deviceProp.maxThreadsDim[2]);
        printf("Maximum size of each dimension of a grid:       %d x %d x %d\n", deviceProp.maxGridSize[0], deviceProp.maxGridSize[1], deviceProp.maxGridSize[2]);
        printf("Maximum memory pitch:                           %u bytes\n", deviceProp.memPitch);
        printf("Texture alignmemt:                              %u bytes\n", deviceProp.texturePitchAlignment);
        printf("Clock rate:                                     %.2f GHz\n", deviceProp.clockRate * 1e-6f);
        printf("Memory Clock rate:                              %.0f MHz\n", deviceProp.memoryClockRate * 1e-3f);
        printf("Memory Bus Width:                               %d-bit\n", deviceProp.memoryBusWidth);
    }

    return 0;
}

输出结果:

  

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值