CUDA三种前缀分别用于在定义函数时限定该函数的调用和执行方式,如下:
(1)_host_ int foo(int a){}与C或者C++中的foo(int a){}相同,是由CPU调用,由CPU执行的函数 。
和我们平常写的函数是一致的。
__host__ int foo(int a)
{
return 1;
}
(2)_global_ int foo(int a){}表示一个内核函数,是一组由GPU执行的并行计算任务,以foo<<>>(a)的形式或者driver API的形式调用。目前global函数必须由CPU调用,并将并行计算任务发射到GPU的任务调用单元。随着GPU可编程能力的进一步提高,未来可能可以由GPU调用。
执行多线程的global函数好像是比可以返回值的,返回值类型应该是void
__global__ int foo(int a)
{
}
(3)_device_ int foo(int a){}则表示一个由GPU中一个线程调用的函数。由于Tesla架构的GPU允许线程调用函数,因此实际上是将device 函数以__inline形式展开后直接编译到二进制代码中实现的,并不是真正的函数。
__device__ int foo(int a)
{
return 1;
}
具体来说,device前缀定义的函数只能在GPU上执行,所以device修饰的函数里面不能调用一般常见的函数;global前缀,CUDA允许能够在CPU,GPU两个设备上运行,但是也不能运行CPU里常见的函数;host前缀修饰的事普通函数,默认缺省,可以调用普通函数。
因此,在出现报错如:“error : calling a host function from a global function is not allowed. ”时候,即为将一个普通的函数错误地添加进入了global前缀定义函数,在CUDA文件.cu文件中是不允许的。
host调用host,global调用global和device调用device函数是可以的;
host函数可以调用global函数,反之不可以。
global调用device函数是可以叠,反正应该可以。
同时device函数所在的文件应该是.cu后缀的文件,否者也会出现bug