Gpu编程就是要利用gpu强大的运算能力去处理简单的大量的运算。Cpu的芯片中包含大量的逻辑控制单元,这就决定了cpu适用于处理复杂的逻辑控制的任务。而在gpu的芯片中则只有很少的控制单元,但却集成了大量的运算单元,如果只用于进行图像处理的运算,那么对运算资源的浪费就太大了。
下面通过一个程序实例来说明我对gpu编程的理解
该程序引用自<<gpu高性能编程之cuda>>19页,分析内容为自己根据所学知识,写出的个人理解。
_global_ void Sum(float* A, float* B)
{
int bid = blockIdx.x;
int tid = threadIdx.x;
_shared_ s_data[128];
s_data[tid] = A[bid * 128 + tid];
_syncthreads();
for(int i = 64; i > 0; i /= 2)
{
if(tid < i)
{
s_data[tid] = s_data[tid] + s_data[tid + i];
}
_syncthreads();
}
if(tid == 0)
{
B[bid] = s_data[0];
}
}
int main()
{
Sum<<<32,128>>>(A,B);
}
本程序是用于实现对一个[32, 128]的矩阵,求该矩阵每一行的和,最终输出一个32维的向量B,B中每一个元素即原来的矩阵每一行128个元素的和。
程序最开始定义了一个内核函数,所谓内核函数,就是将要在GPU上并行执行的函数,_global_关键字用于描述该函数是由CPU调用,由GPU执行的函数。函数的参数A是输入,参数B是输出。
Main函数是由CPU执行的,在该函数中只有一句对内核函数的调用。在实际的可执行代码中,还应该包含CPU对于向量A的初始化以及赋值操作,以及对输出的