一.安装CUDA5.5以及配置VS助手
1、安装之前必须确认自己电脑的GPU支持CUDA。在设备管理器中找到显示适配器(Display adapters),找到自己电脑的显卡型号,如果包含在http://www.nvidia.com/object/cuda_gpus.html的列表中,说明支持CUDA。
安装CUDA之前最好检查一下自己电脑的显卡驱动版本,版本过老的话,需要更新。有时候安装完毕CUDA之后,运行6中的deviceQuery程序时会出错,请优先考虑显卡驱动的问题。
2、下载NVIDIA CUDA Toolkit( http://www.nvidia.com/content/cuda/cuda-downloads.html),本人下载的是desktop版本win64
CUDA5.0以上已经将ToolKit和SDK等整合在了一起,因此只需下载一个安装文件即可。
3、首先确认自己已经安装Visual Studio 2010后再安装助手Visual Assist X。这里Visual Assist X对于使用CUDA 不是必须的,但为了使程序编写更为方便,这里推荐安装。
4、CUDA的默认安装目录为:C:\Program Files\NVIDIA GPUComputing Toolkit\这里推荐使用默认的安装路径,不需更改。
5、安装完成后,在系统变量环境里面会发现新添加了两个环境变量
CUDA_PATH
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v5.5
CUDA_PATH_V5_5
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v5.5
且在系统变量的path也会自动添加
C:\Program Files\NVIDIA GPU ComputingToolkit\CUDA\v5.5\bin;C:\Program Files\NVIDIA GPU ComputingToolkit\CUDA\v5.5\libnvvp;C:\Program Files (x86)\NVIDIACorporation\PhysX\Common;
6、此时CUDA已经安装成功。可以在DOS命令下,测试运行显示GPU硬件配置和cuda属性例子程序deviceQuery。路径在如下位置:
C:\ProgramData\NVIDIA Corporation\CUDASamples\v5.5\Bin\win32\Release
Dos下的命令提示符
dir查看文件夹下的目录
dir/a:h 查看当前目录的隐藏文件,因为ProgramData是隐藏文件。
cd .. 返回上一级文件夹, cd file 进入file 文件夹
运行bandwidthTest示例程序,结果如下:
双击桌面上的图标,运行cuda自带的例子。
7、CUDA C/C++关键字及函数高亮显示
这个设置是让Visual Studio2010在编辑.cu 文件时,把.cu 文件里的C/C++语法高亮。设置方法:在Visual Studio 2010 的菜单依次选“ Tools|Options|TextEditor|File Extension(工具|选项|文本编辑器|文件扩展名)”,在该窗口中将“Editor(编辑器)”下拉框选择“Microsoft Visual C++”,在“Extension(扩展名)”文本框中输入cu点击“Add(添加)”按钮,重复工作把cuh添加为Visual C++类型,添加完成后点击“OK(确定)”按钮,如下图所示:
为了让CUDA的关键字,如__device__、dim3等的文字高亮,需按如下步骤设置:
将C:\ProgramData\NVIDIA Corporation\CUDASamples\v5.5\doc\syntax_highlighting\visual_studio_8目录下的usertype.dat文件复制到C:\ProgramFiles\Microsoft Visual Studio10.0\Common7\IDE\目录下(对x64位Win7系统为X:\Program Files(X86)\Microsoft Visual Studio10.0\Common7\IDE\)。重启Visual Studio2010后打开.cu文件,CUDA的关键字应该变成蓝色了。
8、CUDA函数高亮,及CUDA 函数输入代码提示
实现这个功能需要使用Visual Assist X,如果没有安装支持Visual Studio 2010的Visual Assist X,这部分功能无法实现。这里只是为使编写代码更加方便,对CUDA程序的开发无实质性障碍。
如果已经安装VisualAssist X,可以通过以下两步实现需要的功能。
(1)使Visual Assist X支持CUDA 函数高亮和代码完成
在VisualStudio 2010的菜单里依次选择:“ VAssistX|Visual assistX Options|Projects|C/C++Directories”,在该界面的“Platform”下拉框中选择Custom,在“Show Directories for”下拉框中选择Other include files,然后在下面的输入框里,新建、添加如下路径,如图:
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v5.5\include
C:\ProgramData\NVIDIA Corporation\CUDA Samples\v5.5\common\inc
(2)使Visual Assist X实现.cu 文件高亮和代码完成功能,需要编辑注册表。在修改注册表时,为避免带来不必要的错误请先关闭Visual Studio 2010。使用Win+R组合键打开“运行”窗口,键入入regedit命令(register edit的缩写)打开注册表,找到如下位置:HKEY_CURRENT_USER\Software\WholeTomato\Visual Assist X\VANet10。在右边找到ExtSource项目,鼠标右键选修改,在原有文字后添加如下文字:.cu;.cuh;确定后关闭注册表。重新打开Visual Studio 2010,Visual Assist X便开始支持.cu 及.cuh 文件的语法高亮及代码完成。此时.cu文件的CUDA 函数是高亮的,使用函数名符号就会自动提示函数全称,参数类型等信息。
修改注册表时,请把vs关闭,否则修改不成功。
二.创建cu文件测试示例
在Visual Studio 2010菜单选择“file|new|project(文件|新建|工程)”,在打开的新建项目窗口的“已安装的模板”一栏中选择“NVIDIA|CUDA”,类型选择为“CUDA 5.5Runtime”,见下图。
在“名称”中输入工程名后,点击确定。cuda自动提供的kernel.cu并行加法示例进行编译运行。结果如下:
在此基础上可以方便的进行cuda的代码测试。
三.在已有的C++项目中添加cu文件
我们往往需要在已建成的vc项目中,加入gpu的并行算法,以提高算法的效率。在此介绍如何在已有的项目中添加cu文件和配置过程。在cudasample中也提供了具体的参考示例,路径如下:
C:\ProgramData\NVIDIACorporation\CUDA Samples\v5.5\0_Simple\cppIntegration
运行cppIntegration_vs2010.sln,查看其配置。
1) 新建一个Win32控制台项目cppcuda;
2) 然后在项目中添加空白cu文件:在源文件处点击右键,添加》新建项
选择的文件类型是CPP文件,在写名称的时候可以直接写为.cu文件,也可以写成.cpp文件之后再进行重命名。此处写为add_kernel.cu.
3) 在项目名称右键选择生成自定义(B)…:
选择CUDA 5.5.(targets,.props)。
4) 在add_kernel.cu文件处点击右键,选择属性》配置属性》项类型下拉菜单中选择 CUDA C/C++
5)在项目》cppcuda属性页中,设置如下红色圆圈内的参数
更改配置属性》常规》字符集:
在 C/C++》常规》附加包含目录中添加绝对路径:
C:\ProgramData\NVIDIACorporation\CUDA Samples\v5.5\common\inc
C/C++》代码生成》运行库改为 多线程调试
链接器》常规》附加库目录中添加
$(CUDA_PATH_V5_5)\lib\$(Platform)
链接器》输入》附加依赖项 中输入
cudart_static.lib
6)以上配置完成之后,可以在空白的addcuda.cu开头添加如下两行代码
#include"cuda_runtime.h"
#include"device_launch_parameters.h"
7) 在cpp 与cu文件建立连接的函数定义必须用extern "C"形式开头,如
extern"C" double addnum(int *c, const int *a, constint *b, unsigned int size);
addnum这个函数具体在cu文件实现并行加法的功能,在cpp文件中调用。
8) 下面给出cppcuda具体的代码
如cppcuda.cpp:
#include"stdafx.h"
extern"C" double addnum(int *c, const int *a, const int *b, unsigned intsize);
int_tmain(int argc, _TCHAR* argv[])
{
const int arraySize = 5;
const int a[arraySize] = { 1, 2, 3, 4,5 };
const int b[arraySize] = { 10, 20, 30,40, 50 };
int c[arraySize] = { 0 };
addnum(c, a, b, arraySize);
return 0;
}
如add_kernel.cu:
#include"cuda_runtime.h"
#include"device_launch_parameters.h"
#include<stdio.h>
cudaError_taddWithCuda(int *c, const int *a, const int *b, unsigned int size);
__global__void addKernel(int *c, const int *a, const int *b)
{
int i = threadIdx.x;
c[i] = a[i] + b[i];
}
extern"C" double addnum(int *c, const int *a, const int *b, unsigned intsize)
{
cudaError_t cudaStatus = addWithCuda(c,a, b, size);
if (cudaStatus != cudaSuccess) {
fprintf(stderr,"addWithCuda failed!");
return 1;
}
}
cudaError_taddWithCuda(int *c, const int *a, const int *b, unsigned int size)
{
int *dev_a = 0;
int *dev_b = 0;
int *dev_c = 0;
cudaError_t cudaStatus;
// Choose which GPU to run on, changethis on a multi-GPU system.
cudaStatus = cudaSetDevice(0);
if (cudaStatus != cudaSuccess) {
fprintf(stderr,"cudaSetDevice failed! Do you havea CUDA-capable GPU installed?");
goto Error;
}
// Allocate GPU buffers for threevectors (two input, one output) .
cudaStatus =cudaMalloc((void**)&dev_c, size * sizeof(int));
if (cudaStatus != cudaSuccess) {
fprintf(stderr,"cudaMalloc failed!");
goto Error;
}
cudaStatus =cudaMalloc((void**)&dev_a, size * sizeof(int));
if (cudaStatus != cudaSuccess) {
fprintf(stderr,"cudaMalloc failed!");
goto Error;
}
cudaStatus =cudaMalloc((void**)&dev_b, size * sizeof(int));
if (cudaStatus != cudaSuccess) {
fprintf(stderr,"cudaMalloc failed!");
goto Error;
}
// Copy input vectors from host memoryto GPU buffers.
cudaStatus = cudaMemcpy(dev_a, a, size* sizeof(int), cudaMemcpyHostToDevice);
if (cudaStatus != cudaSuccess) {
fprintf(stderr,"cudaMemcpy failed!");
goto Error;
}
cudaStatus = cudaMemcpy(dev_b, b, size* sizeof(int), cudaMemcpyHostToDevice);
if (cudaStatus != cudaSuccess) {
fprintf(stderr,"cudaMemcpy failed!");
goto Error;
}
// Launch a kernel on the GPU with onethread for each element.
addKernel<<<1,size>>>(dev_c, dev_a, dev_b);
// Check for any errors launching thekernel
cudaStatus = cudaGetLastError();
if (cudaStatus != cudaSuccess) {
fprintf(stderr,"addKernel launch failed: %s\n", cudaGetErrorString(cudaStatus));
goto Error;
}
// cudaDeviceSynchronize waits for thekernel to finish, and returns
// any errors encountered during thelaunch.
cudaStatus = cudaDeviceSynchronize();
if (cudaStatus != cudaSuccess) {
fprintf(stderr,"cudaDeviceSynchronize returned error code %d after launchingaddKernel!\n", cudaStatus);
goto Error;
}
// Copy output vector from GPU bufferto host memory.
cudaStatus = cudaMemcpy(c, dev_c, size* sizeof(int), cudaMemcpyDeviceToHost);
if (cudaStatus != cudaSuccess) {
fprintf(stderr,"cudaMemcpy failed!");
goto Error;
}
Error:
cudaFree(dev_c);
cudaFree(dev_a);
cudaFree(dev_b);
return cudaStatus;
}