cuda中,两个维度的数组如何使用 也是看了别人的文章,完后自己也实现一下

9 篇文章 0 订阅
cudaimprocess.h
#define M 16
#define N 16

__global__ void build_TransMat(float* d_transMat,size_t pitch);

void D2DimTest();

cudaimprocess.cu
__global__ void build_TransMat(float * d_transMat, size_t pitch)
{
	int count = 1;
	int tid_y = blockIdx.y*blockDim.y + threadIdx.y; //这类相当于height 。这么理解就可以了
	int offset_y = blockDim.y * gridDim.y;

	int tid_x = blockIdx.x*blockDim.x + threadIdx.x; //这里相当于width
	int offset_x = blockDim.x * gridDim.x;

	for (int j = tid_y; j < M; j += offset_y)
	{
		float * row_d_transMat = (float*)((char*)d_transMat+j*pitch);//这里要地址对齐,所以不是j*row+d_transMat
		for (int i = tid_x; i < N; i += offset_x)
		{
			if (i == j)
			{
				row_d_transMat[i] = 7;
				printf("%d  %d - \n",i,j);
			}
			else
			{
				row_d_transMat[i] = 0;
			}
		
			count++ ;
		}
	}

	__syncthreads();
}

void D2DimTest()
{
	float * d_transMat;
	float * transMat;
	size_t pitch;
	transMat = new float[M*N];

	cudaMallocPitch(&d_transMat,&pitch,sizeof(float)*N,M);

	cudaMemset2D(d_transMat,pitch,0,sizeof(float)*N,M);

	
	dim3 threadsPerBlock(32,32);
	dim3 blocksPergrid(M+threadsPerBlock.x-1/128, N+threadsPerBlock.y-1/128);
	build_TransMat << <blocksPergrid, threadsPerBlock >> > (d_transMat,pitch);
	cudaMemcpy2D(transMat,sizeof(float)*N,d_transMat,pitch,sizeof(float)*N,M
	,cudaMemcpyKind::cudaMemcpyDeviceToHost);

	std::cout << "二维测试案例:   pitch: " <<pitch<<std::endl;
	for (int j = 0,k=0; j < M; j++)
	{
		for (int i = 0; i < N; i++,k++)
		{
			std::cout << transMat[k] << " ";
		}
		std::cout << std::endl;
	}
	

	cudaFree(d_transMat);
	delete []transMat;
}

在这里插入图片描述
这是出来的结果,打印 pitch ,发现是512, 是128倍数, 这个是gpu自己分配的,

那么这样一来,以后写二维数组就简单多了,直接使用这种方式来处理,不用将二维转成一维, 虽然牺牲了点效率,但是后续代码可维护性以及可读性就强了很多…

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CUDA使用二维数组需要进行以下步骤: 1. 在主机端(CPU端)定义一个二维数组,例如: ``` int h_array[N][M]; ``` 其N和M分别代表数组的行数和列数。 2. 在设备端(GPU端)定义一个指针,指向这个二维数组的首地址,例如: ``` int (*d_array)[M]; ``` 这里使用了指针数组的方式,因为二维数组在内存是按行存储的,指针数组可以方便地实现这种存储方式。 3. 在CUDA核函数,将主机端的数组拷贝到设备端: ``` cudaMemcpy(d_array, h_array, N * M * sizeof(int), cudaMemcpyHostToDevice); ``` 这里使用CUDA提供的数据拷贝函数`cudaMemcpy`,将主机端的数组`h_array`拷贝到设备端的数组`d_array`。 4. 在CUDA核函数,可以使用二维数组进行计算,例如: ``` __global__ void kernel(int (*array)[M]) { int i = blockIdx.x * blockDim.x + threadIdx.x; int j = blockIdx.y * blockDim.y + threadIdx.y; if (i < N && j < M) { array[i][j] = i * j; } } ``` 这里使用CUDA的二维块和二维线程的概念,将二维数组的每个元素计算出来。 5. 在CUDA核函数执行完毕后,将设备端的数组拷贝回主机端: ``` cudaMemcpy(h_array, d_array, N * M * sizeof(int), cudaMemcpyDeviceToHost); ``` 这里使用CUDA提供的数据拷贝函数`cudaMemcpy`,将设备端的数组`d_array`拷贝回主机端的数组`h_array`。 以上就是在CUDA使用二维数组的基本步骤。需要注意的是,在定义二维数组的时候,数组的行数和列数必须是常量,不能是变量。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值