CUDA流

我们已经看到了通过单指令的数据流(Single Instruction Multiple Data,SIMD)的方式进行数据并行,GPU性能取得了巨大的提升。但我们还没有看到任务并行的效果,后者是指多个互相独立的内核函数同时执行。例如,CPU上的一个函数可能正在计算像素的值,而另外一个函数则可能正在从Internet上下载东西。GPU也提供这种能力,但不如CPU灵活。在GPU上是通过使用CUDA流来实现任务并行的,具体怎么做我们将在本小节说明。
CUDA流是GPU上的工作队列,队列里的工作将以特定的顺序执行。这些工作可以包括:内核函数的调用,cudaMemcpy系列传输,以及对CUDA事件的操作。它们添加到队列的顺序将决定它们的执行顺序。每个CUDA流可以被视为单个任务,因此我们可以启动多个流来并行执行多个任务。(译者注:很多情况下,来自多个流中的工作可能同时执行。因此通过同时使用多个流,就有可能在GPU上取得作者说的任务并行的效果。

#include "stdio.h"
#include <iostream>
#include <cuda.h>
#include <cuda_runtime.h>

//Defining number of elements in Array
#define N	50000

//Defining Kernel function for vector addition
__global__ void gpuAdd(int *d_a, int *d_b, int *d_c)
{
	//Getting Thread index of current kernel
	int tid = threadIdx.x + blockIdx.x * blockDim.x;
	while (tid < N)
	{
		d_c[tid] = d_a[tid] + d_b[tid];
		tid += blockDim.x * gridDim.x;
	}
}

int main()
{
	//Defining host arrays
	int *h_a, *h_b, *h_c;
	//Defining device pointers for stream 0
	int *d_a0, *d_b0, *d_c0;
	//Defining device pointers for stream 1
	int *d_a1, *d_b1, *d_c1;
	cudaStream_t stream0, stream1;
	cudaStreamCreate(&stream0);
	cudaStreamCreate(&stream1);
	cudaEvent_t e_start, e_stop;
	cudaEventCreate(&e_start);
	cudaEventCreate(&e_stop);
	cudaEventRecord(e_start, 0);

	cudaHostAlloc((void**)&h_a, N * 2 * sizeof(int), cudaHostAllocDefault);
	cudaHostAlloc((void**)&h_b, N * 2 * sizeof(int), cudaHostAllocDefault);
	cudaHostAlloc((void**)&h_c, N * 2 * sizeof(int), cudaHostAllocDefault);

	// allocate the memory
	cudaMalloc((void**)&d_a0, N * sizeof(int));
	cudaMalloc((void**)&d_b0, N * sizeof(int));
	cudaMalloc((void**)&d_c0, N * sizeof(int));
	cudaMalloc((void**)&d_a1, N * sizeof(int));
	cudaMalloc((void**)&d_b1, N * sizeof(int));
	cudaMalloc((void**)&d_c1, N * sizeof(int));
	//Initializing Arrays
	for (int i = 0; i < N * 2; i++) 
	{
		h_a[i] = 2 * i * i;
		h_b[i] = i;
	}
	
	cudaMemcpyAsync(d_a0, h_a , N * sizeof(int), cudaMemcpyHostToDevice, stream0);
	cudaMemcpyAsync(d_a1, h_a + N, N * sizeof(int), cudaMemcpyHostToDevice, stream1);
	cudaMemcpyAsync(d_b0, h_b , N * sizeof(int), cudaMemcpyHostToDevice, stream0);
	cudaMemcpyAsync(d_b1, h_b + N, N * sizeof(int), cudaMemcpyHostToDevice, stream1);
	//Calling kernels passing device pointers as parameters
	gpuAdd << <512, 512, 0, stream0 >> > (d_a0, d_b0, d_c0);
	gpuAdd << <512, 512, 0, stream1 >> > (d_a1, d_b1, d_c1);
	//Copy result back to host memory from device memory
	cudaMemcpyAsync(h_c , d_c0, N * sizeof(int), cudaMemcpyDeviceToHost, stream0);
	cudaMemcpyAsync(h_c + N, d_c1, N * sizeof(int), cudaMemcpyDeviceToHost, stream0);
	
	cudaDeviceSynchronize();
	cudaStreamSynchronize(stream0);
	cudaStreamSynchronize(stream1);
	cudaEventRecord(e_stop, 0);
	cudaEventSynchronize(e_stop);
	float elapsedTime;
	cudaEventElapsedTime(&elapsedTime, e_start, e_stop);
	printf("Time to add %d numbers: %3.1f ms\n",2* N, elapsedTime);

	int Correct = 1;
	printf("Vector addition on GPU \n");
	//Printing result on console
	for (int i = 0; i < 2 * N; i++) 
	{
		if ((h_a[i] + h_b[i] != h_c[i]))
		{
			Correct = 0;
		}
	}
	if (Correct == 1)
	{
		printf("GPU has computed Sum Correctly\n");
	}
	else
	{
		printf("There is an Error in GPU Computation\n");
	}

	//Free up memory
	cudaFree(d_a0);
	cudaFree(d_b0);
	cudaFree(d_c0);
	cudaFree(d_a0);
	cudaFree(d_b0);
	cudaFree(d_c0);
	cudaFreeHost(h_a);
	cudaFreeHost(h_b);
	cudaFreeHost(h_c);
	return 0;
}

我们定义了两个cudaStream_t类型的CUDA流对象,stream 0和 stream 1,然后通过cudaStreamCreate函数创建了流。我们也定义了两套相关的主机和设备指针,将分别会在2个流中使用。我们定义并创建了2个CUDA 事件对象,用来进行该程序的性能测量。
CUDA流(中的传输)需要使用页面锁定内存,所以我们这里使用了cudaHostAlloc函数,而不是常规的malloc进行内存分配。在上一节,我们已经了解过页面锁定内存的优点。我们用cudaMalloc分配了两套设备指针。需要注意的是,主机指针容纳了整体的数据,所以它((的分配大小)是2*N * sizeof(int);而设备指针则因为每次只需要计算一半的数据,所以它(的分配大小)是N * sizeof(int)。我们还用一些用来做加法的随机值初始化了主机数组。
不同于之前调用简单的cudaMemcpy 函数,我们现在改用cudaMemcpyAsync,它用于进行异步传输。它额外可以在函数的最后一个参数中指定一个特定的流,从而在这个特定的流中进行存储器传输操作。当该函数返回的时候,(实际)的存储器传输操作可能尚未完成,甚至尚未开始,所以它叫作异步操作。它只是在特定的流中添加了一个传输工作。具体的我们能看到,stream0中进行了从0到N的数据传输工作,而 stream1中则进行了从N+1到2N的数据传输工作。
需要说明的是,每个流中的工作是串行的,而流和流之间则默认不保证顺序。因此,当我们想让(一个流中的)传输工作和(另外一个流中的)内核计算操作并行执行的话,需要特别地注重流中操作的顺序问题。你不能将所有的传输工作都放到一个流中,而将所有的计算工作都放到另外一个流中,相反,我们在每个流中都放入了(依次的)传输和计算工作。这将会保证每个流中的工作顺序正确,同时在硬件的辅助下,两个流之间的计算和传输工作并行执行。这样如果传输和计算工作都原本正好占据一半的时间,我们能取得将近2倍的性能提升(因为随着系统、卡、问题规模的不同,不一定是精确的时间2倍提升)。
时间线是从上往下展开的。我们能够看到两个传输过程和内核计算是在同一个时间段内执行的。这样会加速你的程序。我们也可以看到,调用cudaMemcpyAsync进行的几次传输操作是异步的。所以,当一个流(中的传输调用)返回的时候,实质的传输操作可能还没有开始。如果我们想用最后一次回传cudaMemcpyAsync操作的结果,必须等待这两个流中的操作完成。
cudaStreamSynchronize()确保了流中的所有操作都结束后才返回控制权给主机。记录结束时刻,这样,基于结束时刻和开始时刻的时间差值,能计算出程序的整体执行时间,并在控制台上输出。在程序的最后,通过使用cudaFree释放掉了设备上分配的显存,并通过cudaFreeHost释放掉了cudaHostAlloc分配的(页面锁定)内存。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

给算法爸爸上香

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值