源码链接:
https://github.com/NVIDIA/cuda-samples/blob/v11.8/Samples/0_Introduction/asyncAPI/asyncAPI.cu
首先,这个sample不是演示async copy的示例,而是演示当gpu在运行的时候,cpu也可以做自己的事情,cpu和gpu是异步的;
这个示例的要义是想指出,函数 cudaMemcpyAsync(a, d_a, nbytes, cudaMemcpyDeviceToHost, 0) 当其中的host内存指针a指向的空间是由cudaMallocHost来分配出来的话,这个函数刚刚开始执行之后未结束执行之前,cpu一侧的代码可以继续执行;
要点是Host侧的a指针指向的空间需要时cudaMallocHost分配的,否则,如果是malloc或者new出来的空间,cudaMemcpyAsync的效果会跟cudaMemcpy的效果相同,将等到copy结束后才会执行cpu侧的代码;