cuda加速的头文件_MFC 实现CUDA加速

这篇博客详细介绍了如何在MFC工程中实现CUDA加速,包括创建工程、添加CUDA源文件、设置编译器选项、链接库以及调用CUDA核函数进行计算。通过实例展示了CUDA加速的基本步骤,并提供了代码示例进行性能对比。
摘要由CSDN通过智能技术生成

这篇文章写的是之前关于CUDA加速的另外一篇文章没详谈的部分,当时因为嫌麻烦懒得写,最近买了GTX960心情大好!决定把这个坑给填了。

当然由于本人才疏学浅,关于配置这些东西也是一知半解,所以参考了这篇文章,如果看到的朋友觉得本人讲的不好可以参考下。

OK,进入主题之前说一下,本篇文章基本是参照本文开头提到的那篇来的,有比较强的关联性,如果看的不太明白的话建议先看那篇。下面正式开始。

首先建一个win32工程或者MFC工程,本文以MFC工程为例。

去上之前文章工程的位置找到“main.h”和“kernel.cu”两个文件,然后添加进刚刚建的工程里面(也就是在工程名上右键->添加现有项)。如果不想这么搞也行,直接新建两个文件然后填入内容即可,内容如下:

main.h

#include//时间相关头文件,可用其中函数计算图像处理速度

#include

#define datasize 50000    kernel.cu

#include

#include "main.h"

inline void checkCudaErrors(cudaError err)//错误处理函数

{

if (cudaSuccess != err)

{

fprintf(stderr, "CUDA Runtime API error: %s.\n", cudaGetErrorString(err));

return;

}

}

__global__ void add(int *a, int *b, int *c)//处理核函数

{

int tid = blockIdx.x*blockDim.x + threadIdx.x;

for (size_t k = 0; k < 50000; k++)

{

c[tid] = a[tid] + b[tid];

}

}

extern "C" int runtest(int *host_a, int *host_b, int *host_c)

{

int *dev_a, *dev_b, *dev_c;

checkCudaErrors(cudaMalloc((void**)&dev_a, sizeof(int)* datasize));//分配显卡内存

checkCudaErrors(cudaMalloc((void**)&dev_b, sizeof(int)* datasize));

checkCudaErrors(cudaMalloc((void**)&dev_c, sizeof(int)* datasize));

checkCudaErrors(cudaMemcpy(dev_a, host_a, sizeof(int)* datasize, cudaMemcpyHostToDevice));//将主机待处理数据内存块复制到显卡内存中

checkCudaErrors(cudaMemcpy(dev_b, host_b, sizeof(int)* datasize, cudaMemcpyHostToDevice));

add << > >(dev_a, dev_b, dev_c);//调用显卡处理数据

checkCudaErrors(cudaMemcpy(host_c, dev_c, sizeof(int)* datasize, cudaMemcpyDeviceToHost));//将显卡处理完数据拷回来

cudaFree(dev_a);//清理显卡内存

cudaFree(dev_b);

cudaFree(dev_c);

return 0;

}如果觉得名字不爽是可以改成别的的,这里我只是嫌麻烦而已。

做完上面的工作其实已经完成了一大半了,通常好一点的习惯是新建一个叫做“CUDA”或者“CUDAFILE”之类的名字的筛选器然后把.cu文件扔到里面去,这样看起来会比较好,不过也不是一定需要的。

下面来做本文最为关键的一步,因为cuda代码是用cuda本身提供的编译器来编译的,这些需要指定一下,过程如下,为了表达这一过程的重要性,本人还特地截了图。

工程名上右键->生成依赖性->生成自定义

cdccade1dc69ee73a2fc17ba7cbff90d.png

把CUDA 6.5(.targets,.props)勾上,如果你的版本不是6.5,就勾CUDA开头的就对了,好像现在已经有7.0了。勾完确定。

在kernel.cu名字上右键进入其属性页面

e0e0bd58f4d10c2a56b83bed5c057d34.png

在属性页中可以看到项类型为“不参与生成”,有脚趾头就能想到这个东西要改掉,下拉,直接选上“CUDA C/C++”,应用,确定。

815e129c4e55f2e9130b9f40fe67f7ff.png

OK,到这步基本是做完了,还要加上一些链接库,这个自己加会比较坑爹,好在上一篇文章提到的cuda项目有自动添加这些,所以只要去那个工程复制粘贴就搞定了。具体是工程属性->配置属性->链接器->输入->附加依赖性,添加下面这些(这些是我自己的,没在别的电脑或者版本环境试过,最好是拷贝CUDA工程自己生成的):

cudart.lib

kernel32.lib

user32.lib

gdi32.lib

winspool.lib

comdlg32.lib

advapi32.lib

shell32.lib

ole32.lib

oleaut32.lib

uuid.lib

odbc32.lib

odbccp32.lib

5356c6f0804c9af5c96291408886908c.png

最后,工程属性->配置属性->生产事件->后期生成事件->命令行,也把cuda自动生成工程的信息考过去,这样就大功告成啦,本人的信息是

echo copy "$(CudaToolkitBinDir)\cudart*.dll" "$(OutDir)"

copy "$(CudaToolkitBinDir)\cudart*.dll" "$(OutDir)"

这个是动态链接库拷贝的,很重要哦对发行来说。

做完这些就大功搞成了。在后面的代码中至于要把“main.h”头文件引进来,然后声明下加速速的函数即可,在这个例子中为:

extern "C" int runtest(int *host_a, int *host_b, int *host_c);//显卡处理函数调用本例子加速测试的代码可以这么写:

int a[datasize], b[datasize], c[datasize];

for (size_t i = 0; i < datasize; i++)

{

a[i] = i;

b[i] = i*i;

}

long now1 = clock();//存储图像处理开始时间

runtest(a, b, c);//调用显卡加速

printf("GPU运行时间为:%dms\n", int(((double)(clock() - now1)) / CLOCKS_PER_SEC * 1000));//输出GPU处理时间

long now2 = clock();//存储图像处理开始时间

for (size_t i = 0; i < datasize; i++)

{

for (size_t k = 0; k < 50000; k++)

{

c[i] = (a[i] + b[i]);

}

}

printf("CPU运行时间为:%dms\n", int(((double)(clock() - now2)) / CLOCKS_PER_SEC * 1000));//输出GPU处理时间到此全部做完,如果其中有错误或者别的一些问题请告诉我。

原文:http://blog.csdn.net/weixinhum/article/details/44571085

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值