CUDA, 用于大量数据的超级运算:第五节

 http://www.ddj.com/hpc-high-performance-computing/208801731 

转自:http://blog.csdn.net/gemin/article/details/4805686

了解和使用共享内存(2)
Rob Farber 是西北太平洋国家实验室(Pacific Northwest National Laboratory)的高级科研人员。他在多个国家级的实验室进行大型并行运算的研究,并且是几个新创企业的合伙人。大家可以发邮件到rmfarber@gmail.com与他沟通和交流。

在CUDA系列文章的第四节里,我探讨了执行模型和内核启动执行配置是如何影响寄存器的数量和本地多处理器资源如共享内存的数量的。在本小节,我会继续探讨内存性能,和在reverseArray_multiblock_fast.cu.内使用共享内存。
CUDA 内存性能
本地内存空间和全局内存空间不会缓存,这意味着每次对全局内存(或本地内存)进行访问都将导致一次实际的内存访问。那么访问(例如读取或写入)各种类型的内存的“开销”是多少?
多处理器需要四(4)个时钟周期才能为每次“warp(交换)”发出一条内存指令。读取本地或全局内存。访问本地或全局内存将导致400到600个时钟周期的延迟。举例说明,在以下代码片段中的赋值运算符需要4个时钟周期才能从全局内存中进行一次读取,4个时钟周期从共享内存进行一次写入,需要400到600个时钟周期从全局内存读取一个浮点值。注意:4个时钟周期从共享内存进行一次写入,需要400到600个时钟周期从全局内存读取一个浮点值。注意:使用__device__变量类型限定符表示全局内存中的变量(有关其他变量特征,请参见CUDA Programming Guide第4.2.2.1节)。主代码不能访问变量类型__device__。
    
__shared__ float shared[32];
__device__ float device[32];
shared[threadIdx.x] = device[threadIdx.x];

当访问时间出现100-150倍差别时,难怪程序开发人员会需要最小化对全局内存的访问,并且在本地多处理器内存内重新使用数据。CUDA设计者对线程调度程序的设计十分巧妙,大量的全局内存延迟都可以透明地隐藏起来:只需在执行配置中指定大量数据块,并尽可能在内核中使用寄存器、__shared__和__constant__存储器类型处理变量即可。
因为共享内存在芯片上,因此访问速度要比读取全局内存快很多,并且主要的优化是为了避免存储器组冲突。共享内存速度较快(有些文章认为它和寄存器访问一样快捷)。
然而,最近CUBLAS和CUFFT性能获得极大的改进:通过尽量使用共享内存而非寄存器-因此如可能的话,尽量使用寄存器吧。CUDA共享内存被分为大小相同的内存模块,称为存储器组(memory bank)。每个存储器组都保存有一个连续的32位值(如int和float),因此通过连续线程对连续数组访问非常的快捷。当向同一个存储数组(可能是同一个地址或映射到同一个存储数组的多个地址)发出数据请求时,存储器组发生冲突。如果发生这种情况,硬件会有效地序列化内存运算,强迫所有线程等待直到内存请求得以完成。如果所有的线程从同一个共享内存地址读取,那就会自动调用广播机制,避免序列化。共享内存广播是一个同时向多个线程提供数据的有效方法。使用共享内存时,您完全可以尝试下利用这一特点。
我将在下一个专栏文章中更为详细地讨论存储器组冲突。现在,只需要知道reverseArray_multiblock_fast.cu 没有存储器冲突,因为连续线程方位连续值。
具有读取/写入功能的多处理器本地存储器类型总结如下:
寄存器
多处理器上最快的内存形式;
仅可通过线程访问;
有线程的生命周期
共享内存
在没有存储器组冲突(从同一个地址读取)时与寄存器一样快。
可从创建线程的任何块访问;
有线程的生命周期
全局内存:
可能比寄存器或共享内存慢150倍,注意非联合读取和写入(将在下一专栏中讨论)。
可从主机或设备访问;
有应用程序的生命周期
本地内存:
潜在的性能缺陷,位于全局内存中,可能比寄存器或共享内存慢150倍。
仅可通过线程访问;
有线程的生命周期
共享内存注意事项

小心共享内存存储器冲突,可能会导致性能降低;
所有在内核里的动态分配的共享变量在同一个内存地址开始。使用至少两个动态分配共享内存数组要求手动生成偏移量。例如,如果你想动态分配共享内存,以包含两个数组, a 和b, 你需要进行如下操作:

[c-sharp]  view plain copy
  1. __global__ void kernel(int aSize)  
  2. {  
  3.    extern __shared__ float sData[];  
  4.    float *a, *b;  
  5.   
  6.    a = sData;  
  7.    b = &a[aSize];  

寄存器/本地内存注意事项
寄存器内存可以透明地存入本地内存。这可能会造成性能欠佳。检查ptx 汇编代码或在通过nvcc在输出中查找lmem,命令如下:“—ptxas-options=-v”。
编译时已经知道的通过常量索引的数组通常存于寄存器中,但是如果使用变量索引,它们就不能存于寄存器中。这就为开发人员弄出了一个难题,因为可能需要循环展开以在寄存器内存,而非较慢的全局内存中,保存数组元素。然而,展开循环会急剧增加寄存器使用量,因而就可能会使得变量被保存在本地内存中――从而抵消了循环展开的诸多好处。可以使用使用nvcc选项,“—maxrregcount=value”告诉编译器使用更多寄存器(注意:可以指定的最大寄存器数量为128)。这需要在“使用更多的寄存器”和“创建更少的线程”之间权衡利弊,有可能会妨碍隐藏存储器延迟。在某些架构中,使用该选项可能造成资源不足,从而导致内核无法启动。
共享内存内核
程序reverseArray_multiblock.cu 和revereseArray_multiblock_fast.cu 执行同样的任务。它们创建一个一维整数数组h_a,数组包含整数值[0 .. dimA-1]。数组可以通过cudaMemcpy移动到设备,然后主机启动reverseArrayBlock内核就地逆转数组内容的顺序。再次使用cudaMemcpy将数据从设备传回主机,并执行一个检查,检查设备生成了正确的结果(例如[dimA-1 .. 0])。
区别就是:reverseArray_multiblock_fast.cu 使用共享内存以改进内核的性能,而reverseArray_multiblock.cu在全局内存里执行。尝试下给这两个程序计时,验证下它们的性能区别。另外,reverseArray_multiblock.cu 访问全局内存的效率不高。在以后的专栏文章里,我们将使用CUDA PROFILER协助诊断和纠正这个性能,并且展示最新的10个系列架构中的改进如何减少了许多情况下对这些优化的需求。

[c-sharp]  view plain copy
  1. // includes, system  
  2. #include <stdio.h>  
  3. #include <assert.h>  
  4. // Simple utility function to check for CUDA runtime errors  
  5. void checkCUDAError(const char* msg);  
  6. // Part 2 of 2: implement the fast kernel using shared memory  
  7. __global__ void reverseArrayBlock(int *d_out, int *d_in)  
  8. {  
  9.     extern __shared__ int s_data[];  
  10.     int inOffset  = blockDim.x * blockIdx.x;  
  11.     int in  = inOffset + threadIdx.x;  
  12.     // Load one element per thread from device memory and store it   
  13.     // *in reversed order* into temporary shared memory  
  14.     s_data[blockDim.x - 1 - threadIdx.x] = d_in[in];  
  15.     // Block until all threads in the block have written their data to shared mem  
  16.     __syncthreads();  
  17.     // write the data from shared memory in forward order,   
  18.     // but to the reversed block offset as before  
  19.     int outOffset = blockDim.x * (gridDim.x - 1 - blockIdx.x);  
  20.     int out = outOffset + threadIdx.x;  
  21.     d_out[out] = s_data[threadIdx.x];  
  22. }  
  23.   
  24. // Program main  
  25.   
  26. int main( int argc, char** argv)   
  27. {  
  28.     // pointer for host memory and size  
  29.     int *h_a;  
  30.     int dimA = 256 * 1024; // 256K elements (1MB total)  
  31.     // pointer for device memory  
  32.     int *d_b, *d_a;  
  33.     // define grid and block size  
  34.     int numThreadsPerBlock = 256;  
  35.     // Compute number of blocks needed based on array size and desired block size  
  36.     int numBlocks = dimA / numThreadsPerBlock;    
  37.     // Part 1 of 2: Compute the number of bytes of shared memory needed  
  38.     // This is used in the kernel invocation below  
  39.     int sharedMemSize = numThreadsPerBlock * sizeof(int);  
  40.     // allocate host and device memory  
  41.     size_t memSize = numBlocks * numThreadsPerBlock * sizeof(int);  
  42.     h_a = (int *) malloc(memSize);  
  43.     cudaMalloc( (void **) &d_a, memSize );  
  44.     cudaMalloc( (void **) &d_b, memSize );  
  45.     // Initialize input array on host  
  46.     for (int i = 0; i < dimA; ++i)  
  47.     {  
  48.         h_a[i] = i;  
  49.     }  
  50.     // Copy host array to device array  
  51.     cudaMemcpy( d_a, h_a, memSize, cudaMemcpyHostToDevice );  
  52.     // launch kernel  
  53.     dim3 dimGrid(numBlocks);  
  54.     dim3 dimBlock(numThreadsPerBlock);  
  55.     reverseArrayBlock<<< dimGrid, dimBlock, sharedMemSize >>>( d_b, d_a );  
  56.     // block until the device has completed  
  57.     cudaThreadSynchronize();  
  58.     // check if kernel execution generated an error  
  59.     // Check for any CUDA errors  
  60.     checkCUDAError("kernel invocation");  
  61.     // device to host copy  
  62.     cudaMemcpy( h_a, d_b, memSize, cudaMemcpyDeviceToHost );  
  63.     // Check for any CUDA errors  
  64.     checkCUDAError("memcpy");  
  65.     // verify the data returned to the host is correct  
  66.     for (int i = 0; i < dimA; i++)  
  67.     {  
  68.         assert(h_a[i] == dimA - 1 - i );  
  69.     }  
  70.     // free device memory  
  71.     cudaFree(d_a);  
  72.     cudaFree(d_b);  
  73.     // free host memory  
  74.     free(h_a);  
  75.     // If the program makes it this far, then the results are correct and  
  76.     // there are no run-time errors.  Good work!  
  77.     printf("Correct!/n");  
  78.     return 0;  
  79. }  
  80.   
  81. void checkCUDAError(const char *msg)  
  82. {  
  83.     cudaError_t err = cudaGetLastError();  
  84.     if( cudaSuccess != err)   
  85.     {  
  86.         fprintf(stderr, "Cuda error: %s: %s./n", msg, cudaGetErrorString( err) );  
  87.         exit(EXIT_FAILURE);  
  88.     }                           
  89. }  

确定运行时共享内存的量需要在主机和设备代码里进行设置。在本示例中,内核中每个块的共享内存的量(字节为单位)在主机上的执行配置中予以明确,作为可选的第三个参数。(仅当共享内存的容量在内核启动时指定后,才设置主机端。如果在编译时修复,则主机端不需要任何设置。)例如,在主机代码arrayReversal_multiblock_fast.cu中,以下代码片段为一个整数数组(包含的元素数等于数据块中的线程数)分配共享内存:

[c-sharp]  view plain copy
  1. // Part 1 of 2: Compute the number of bytes of share memory needed  
  2. // This is used in the kernel invocation below  
  3. int sharedMemSize = numThreadsPerBlock * sizeof(int);  

检测reverseArrayBlock 内核,  共享内存使用以下代码声明:

[c-sharp]  view plain copy
  1. extern __shared__ int s_data[];  

注意:内核中没有指定大小-大小通过执行配置从主机获取。

在下一个关于配置的专栏前,我建议研究一下reverseArray_multiblock.cu。您认为访问全局内存时存在性能问题吗?如果您认为存在,请尝试解决这一问题。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值