当我们在说GPU并行计算时,其实是指的基于CPU+GPU的异构计算架构。
典型的CUDA程序的执行流程如下:
分配host内存,并进行数据初始化;
分配device内存,并从host将数据拷贝到device上;
调用CUDA的核函数在device上完成指定的运算;
将device上的运算结果拷贝到host上;
释放device和host上分配的内存。
kernel是在device上线程中并行执行的函数,核函数用__global__符号声明,在调用时需要用<<<grid, block>>>来指定kernel要执行的线程数量,
在CUDA中,每一个线程都要执行核函数,并且每个线程会分配一个唯一的线程号thread ID,这个ID值可以通过核函数的内置变量threadIdx来获得。
一个kernel所启动的所有线程称为一个网格(grid)
网格又可以分为很多线程块(block),一个线程块里面包含很多线程
grid和block都是定义为dim3类型的变量,dim3可以看成是包含三个无符号整数(x,y,z)成员的结构体变量,因此grid和block可以灵活地定义为1-dim,2-dim以及3-dim结构
kernel在调用时也必须通过执行配置<<<grid, block>>>来指定kernel所使用的线程数及结构。
一个线程需要两个内置的坐标变量(blockIdx,threadIdx)来唯一标识,它们都是dim3类型变量,其中blockIdx指明线程所在grid中的位置,而threaIdx指明线程所在block中的位置
如图中的Thread (1,1)满足:
threadIdx.x = 1
threadIdx.y = 1
blockIdx.x = 1
blockIdx.y = 1
我们要知道一个线程在blcok中的全局ID,此时就必须还要知道block的组织结构,这是通过线程的内置变量blockDim来获得。它获取线程块各个维度的大小。
另外线程还有内置变量gridDim,用于获得网格块各个维度的大小。
如我们将利用上图2-dim结构实现两个矩阵的加法,每个线程负责处理每个位置的两个元素相加,代码如下所示。线程块大小为(16, 16),然后将N*N大小的矩阵均分为不同的线程块来执行加法运算。
// Kernel定义
__global__ void MatAdd(float A[N][N], float B[N][N], float C[N][N])
{
int i = blockIdx.x * blockDim.x + threadIdx.x;
int j = blockIdx.y * blockDim.y + threadIdx.y;
if (i < N && j < N)
C[i][j] = A[i][j] + B[i][j];
}
int main()
{
...
// Kernel 线程配置
dim3 threadsPerBlock(16, 16);
dim3 numBlocks(N / threadsPerBlock.x, N / threadsPerBlock.y);
// kernel调用
MatAdd<<<numBlocks, threadsPerBlock>>>(A, B, C);
...
}
GPU硬件的一个核心组件是SM,前面已经说过,SM是英文名是 Streaming Multiprocessor,翻译过来就是流式多处理器。
请先创建一个名为 zero_out.cc 的文件
要创建其中一个内核,请先创建一个扩展 OpKernel 并重写 OpKernel 方法的类。
实现内核后,您需要将其注册到 TensorFlow 系统。在注册中,您要指定此内核将在哪些不同约束下运行。
参考
tensorflow建自定义算子
参考:https://blog.csdn.net/xiangxianghehe/article/details/81002227
Compute应该是固定的名字
或者这个:https://www.tensorflow.org/guide/create_op?hl=zh-cn