封装CUDA为动态链接库+Qt调用

4 篇文章 0 订阅

        由于工作需要在Qt中调用CUDA做并行计算,加速算法实现时间,发现有两种方法可以在Qt中调用CUDA代码。

        第一种是在项目中创建CUDA的cu文件,编写CUDA的核函数给其他的QT代码调用,Qt的代码正常编译,CUDA代码使用nvcc编译器编译。这种方法只要配置一下pro文件就可以了,适合CUDA代码比较少的项目,只需要几个核函数调用CUDA进行一下加速运算,具体方法可以看我的另一篇博客:QT+CUDA 同时编译Qt和CUDA代码文章浏览阅读1k次,点赞29次,收藏13次。工作需要把cuda的代码移植到QT中,和Qt项目一起编译,这里记录一下。_qt win .exe加cudahttps://blog.csdn.net/Sakuya__/article/details/141264954?spm=1001.2014.3001.5502

        第二种是把CUDA代码编译成动态链接库,Qt程序直接调用动态链接库中的接口,就像调用其他C++库一样。这种方法适合CUDA代码比较多的项目,比如用CUDA代码实现了一整个深度学习算法,有几十上百个CUDA文件,并且互相包含引用。这时候第一种方法在编译时就可能会有问题,并且也不好进行管理。

        这里记录一下把CUDA代码编译成动态链接库的过程。


一、编译CUDA的动态链接库

1.创建动态链接库工程

        我使用的是VS2022,建立工程,选择具有导出项的动态链接库

        项目名称是CudaDynamicCores,这是我创建完成后的项目目录结构 

        点击项目名称,右键 —> 生成依赖项 —> 生成自定义,勾选上你要用的CUDA版本,然后点击确定

2.添加CUDA文件

        点击项目名称,右键选择添加—>新建项

        选择添加CUDA文件,命名为Test.cu: 

        然后同样的再添加CUDA头文件,命名为Test.cuh 

        创建完后,右键一下Test.cu文件 —>属性,确认文件类型选择的是 CUDA C/C++。我用的VS2022,在第一步中把生成自定义项改为使用CUDA后,创建的cuda文件自动就会选择为 CUDA C/C++,如果不是的话自己点击下拉框选择一下

 3.写入CUDA代码

        Test.cuh 

#ifndef _Test_H
#define _Test_H

#include "CudaDynamicCores.h"
#include "cuda_runtime.h"  
#include "device_launch_parameters.h"

CUDADYNAMICCORES_API int CUDA_VectorAdd(int c[], int a[], int b[], int size);

CUDADYNAMICCORES_API void CUDA_ShowDeviceProp(void);

#endif	// _Test_H

        Test.cu

#include "Test.cuh"
#include <iostream>

// 向量相加  
int CUDA_VectorAdd(int c[], int a[], int b[], int size)
{
	int result = -1;
	int* dev_a = 0;
	int* dev_b = 0;
	int* dev_c = 0;
	cudaError_t cudaStatus;

	// 选择用于运行的GPU  
	cudaStatus = cudaSetDevice(0);
	if (cudaStatus != cudaSuccess) {
		result = 1;
		goto Error;
	}

	// 在GPU中为变量dev_a、dev_b、dev_c分配内存空间.
	cudaStatus = cudaMalloc((void**)&dev_c, size * sizeof(int));
	if (cudaStatus != cudaSuccess) {
		result = 2;
		goto Error;
	}
	cudaStatus = cudaMalloc((void**)&dev_a, size * sizeof(int));
	if (cudaStatus != cudaSuccess) {
		result = 3;
		goto Error;
	}
	cudaStatus = cudaMalloc((void**)&dev_b, size * sizeof(int));
	if (cudaStatus != cudaSuccess) {
		result = 4;
		goto Error;
	}

	// 从主机内存复制数据到GPU内存中.  
	cudaStatus = cudaMemcpy(dev_a, a, size * sizeof(int), cudaMemcpyHostToDevice);
	if (cudaStatus != cudaSuccess) {
		result = 5;
		goto Error;
	}
	cudaStatus = cudaMemcpy(dev_b, b, size * sizeof(int), cudaMemcpyHostToDevice);
	if (cudaStatus != cudaSuccess) {
		result = 6;
		goto Error;
	}

	// 启动GPU内核函数  
	addKernel << <1, size >> > (dev_c, dev_a, dev_b);

	// 采用cudaDeviceSynchronize等待GPU内核函数执行完成并且返回遇到的任何错误信息  
	cudaStatus = cudaDeviceSynchronize();
	if (cudaStatus != cudaSuccess) {
		result = 7;
		goto Error;
	}

	// 从GPU内存中复制数据到主机内存中  
	cudaStatus = cudaMemcpy(c, dev_c, size * sizeof(int), cudaMemcpyDeviceToHost);
	if (cudaStatus != cudaSuccess) {
		result = 8;
		goto Error;
	}

	result = 0;

	// 重置CUDA设备,在退出之前必须调用cudaDeviceReset  
	cudaStatus = cudaDeviceReset();
	if (cudaStatus != cudaSuccess) {
		return 9;
	}
Error:
	//释放设备中变量所占内存  
	cudaFree(dev_c);
	cudaFree(dev_a);
	cudaFree(dev_b);

	return result;
}

//显示设备信息
void CUDA_ShowDeviceProp(void)
{
	int i, count;
	cudaDeviceProp prop;
	cudaError_t cudaStatus = cudaGetDeviceCount(&count);
	if (cudaStatus == cudaSuccess) {
		std::cout << "共有设备数目:" << count << std::endl;
		if (count > 0)
		{
			for (i = 0; i < count; i++)
			{
				cudaGetDeviceProperties(&prop, i);//获取设备的属性信息
				std::cout << "第" << i + 1 << "个设备信息:" << std::endl;
				std::cout << "设备名称:" << prop.name << std::endl;
				std::cout << "总内存:" << prop.totalGlobalMem / 1048576 << "M" << std::endl;
				std::cout << "常量内存:" << prop.totalConstMem << "字节" << std::endl;
				std::cout << "设备中处理器数目:" << prop.multiProcessorCount << "个" << std::endl;
				std::cout << "每个线程块最多包含线程数目:" << prop.maxThreadsPerBlock << "个" << std::endl;
				std::cout << "一个线程格中可包含的线程块数目:I=" << prop.maxGridSize[0]
					<< " J=" << prop.maxGridSize[1] << " K=" << prop.maxGridSize[2] << std::endl;
				std::cout << "多维线程块中可以包含的最大线程数目:I=" << prop.maxThreadsDim[0]
					<< " J=" << prop.maxThreadsDim[1] << " K=" << prop.maxThreadsDim[2] << std::endl;
			}
		}
	}
	else
	{
		std::cout << "没有获取到设备信息!请检查计算机是否具有支持CUDA的显卡设备以及CUDA驱动程序版本是否需要更新!" << std::endl;
	}
}

        CudaDynamicCores.h,前面自动生成的导出类、函数和变量的示例可以删也可以不删,如果删的话,cpp中的实现也一起删掉。在之后加上你自己要导出的函数声明,所有要导出的函数都要用上面宏定义的 CUDADYNAMICCORES_API 修饰,并且用extern "C" 加大括号 { } 括起来。

#ifdef CUDADYNAMICCORES_EXPORTS
#define CUDADYNAMICCORES_API __declspec(dllexport)
#else
#define CUDADYNAMICCORES_API __declspec(dllimport)
#endif

// 此类是从 dll 导出的
class CUDADYNAMICCORES_API CCudaDynamicCores {
public:
	CCudaDynamicCores(void);
	// TODO: 在此处添加方法。
};

extern CUDADYNAMICCORES_API int nCudaDynamicCores;

CUDADYNAMICCORES_API int fnCudaDynamicCores(void);

extern "C" 
{
	/********************************************************************************
	函数:		CUDA_ShowDeviceProp
	参数:		/
	返回值:		/
	说明:		读取设备显卡属性,并打印出来
	*********************************************************************************/
	CUDADYNAMICCORES_API void CUDA_ShowDeviceProp(void);

    /********************************************************************************
	函数:		CUDA_VectorAdd
	参数:		[out] c			向量a和向量b相加的结果
			    [in] a			向量相加计算的第一个向量
                [in] b          向量相加计算的第二个向量
                [in] size       向量的大小
	返回值:		计算结果成功和失败的错误码
	说明:		计算两个向量相加
	*********************************************************************************/
	CUDADYNAMICCORES_API int CUDA_VectorAdd(int c[], int a[], int b[], int size);
}

4.添加链接器的附加依赖项

        点击项目名称,右键选择属性,在链接器 —> 输入 —> 附加依赖项,查看其中有没有cudart.lib,VS2022在设置自定义生成为CUDA后这里会自动有集成值cudart.lib,如果没有的话自己手动添加一下,添加后点击应用和确定。

 5.生成

        点击项目名称,右键选择生成,等待编译完成。

        然后就可以在项目目录下看到一个x64文件夹,里面有Debug或者Release文件夹,取决于你刚才生成之前,解决方案项目配置的是Debug还是Release,文件夹下都有一个lib文件和一个dll文件。你需要看调试信息的话就用Debug,不需要的话就编译Release,我这里用的是Release。


 二、Qt中使用编译好的CUDA动态链接库

1.添加头文件和lib文件

        这里和Qt调用其他C++的动态链接库是一样的,首先创建一个 Qt 的项目。在项目路径下新建一个 include 文件夹,然后把前面的 CudaDynamicCores.h 文件放在里面,再新建一个 lib 文件夹,把上面的 CudaDynamicCores.lib 文件放在里面,最后把 CudaDynamicCores.dll 文件放在你程序运行的路径下,也就是和你程序生成的 exe 文件在同一个目录下。

         在 pro 文件中加入下面这两行,引入头文件和lib文件

2.测试 

        这样就可以使用dll中导出的接口函数了,使用下面的代码测试一下,mainwindow.h

#include "mainwindow.h"
#include "ui_mainwindow.h"

#include "CudaDynamicCores.h"

#include <iostream>

MainWindow::MainWindow(QWidget *parent)
    : QMainWindow(parent)
    , ui(new Ui::MainWindow)
{
    ui->setupUi(this);

    // 显示设备信息
    CUDA_ShowDeviceProp();

    // 两个向量相加
    int a[5] = {1,2,3,4,5};
    int b[5] = {3,4,2,3,5};
    int c[5];
    CUDA_VectorAdd(c,a,b,5);
    std::cout << a[0] << ' ' << a[1] << ' ' << a[2] << ' ' << a[3] << ' ' << a[4] << std::endl;
    std::cout << b[0] << ' ' << b[1] << ' ' << b[2] << ' ' << b[3] << ' ' << b[4] << std::endl;
    std::cout << c[0] << ' ' << c[1] << ' ' << c[2] << ' ' << c[3] << ' ' << c[4] << std::endl;
}

MainWindow::~MainWindow()
{
    delete ui;
}

         可以看到打印出来的结果,大功告成!

  • 19
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
信息数据从传统到当代,是一直在变革当中,突如其来的互联网让传统的信息管理看到了革命性的曙光,因为传统信息管理从时效性,还是安全性,还是可操作性等各个方面来讲,遇到了互联网时代才发现能补上自古以来的短板,有效的提升管理的效率和业务水平。传统的管理模式,时间越久管理的内容越多,也需要更多的人来对数据进行整理,并且数据的汇总查询方面效率也是极其的低下,并且数据安全方面永远不会保证安全性能。结合数据内容管理的种种缺点,在互联网时代都可以得到有效的补充。结合先进的互联网技术,开发符合需求的软件,让数据内容管理不管是从录入的及时性,查看的及时性还是汇总分析的及时性,都能让正确率达到最高,管理更加的科学和便捷。本次开发的高校科研信息管理系统实现了操作日志管理、字典管理、反馈管理、公告管理、科研成果管理、科研项目管理、通知管理、学术活动管理、学院部门管理、科研人员管理、管理员管理等功能。系统用到了关系型数据库中王者MySql作为系统的数据库,有效的对数据进行安全的存储,有效的备份,对数据可靠性方面得到了保证。并且程序也具备程序需求的所有功能,使得操作性还是安全性都大大提高,让高校科研信息管理系统更能从理念走到现实,确确实实的让人们提升信息处理效率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值