CUDA 常用语法和函数
CUDA (Compute Unified Device Architecture) 是 NVIDIA 提供的一个并行计算平台和编程模型,允许开发者使用 NVIDIA GPU进行高性能计算。以下是一些CUDA编程中的常用语法和函数:
- 核函数(Kernel Functions):
-
- 使用
__global__
修饰符定义,这种函数可以从主机(CPU)调用并在设备(GPU)上并行执行。 - 调用格式:
kernel<<<numBlocks, blockSize>>>(arguments);
- 使用
- 内存管理:
-
cudaMalloc((void**)&pointer, size)
: 在GPU上分配内存。cudaFree(pointer)
: 释放GPU上的内存。cudaMemcpy(destination, source, count, cudaMemcpyHostToDevice)
: 从主机复制数据到设备。cudaMemcpy(destination, source, count, cudaMemcpyDeviceToHost)
: 从设备复制数据回主机。
- 线程索引:
-
threadIdx.x
: 当前线程的索引。blockIdx.x
: 当前块的索引。blockDim.x
: 每个块中的线程数。gridDim.x
: 网格中的块数。
- 同步和控制:
-
__syncthreads()
: 在同一个块内的所有线程间进行同步。
- 错误处理:
-
cudaGetErrorString(cudaGetLastError())
: 获取最后一次CUDA操作的错误描述。
常用算法
在CUDA中,一些常用的并行算法包括:
- 矩阵乘法:并行计算两个矩阵的乘积。
- 向量加法:并行计算两个向量的元素和。
- 归约:并行执行归约操作,如求和、最大值、最小值等。
- 排序:实现并行排序算法,如并行快速排序、基数排序等。
- 扫描(前缀和):并行计算数据的前缀和。
CUDA与Python的结合
CUDA可以通过Python调用,主要通过以下几种方式:
- PyCUDA:
-
- PyCUDA是一个流行的库,允许在Python代码中直接使用CUDA功能。
- 它提供了对CUDA API的直接访问,包括内存管理、执行核函数等。
- CuPy:
-
- CuPy是一个类似于NumPy的库,但其运算是在NVIDIA GPU上执行的。
- 它提供了大量的数学函数,这些函数在语法上与NumPy非常相似,但背后是通过CUDA实现的。
- Numba:
-
- Numba是一个即时编译器,可以将Python函数编译成机器代码。
- Numba提供了一个特殊的装饰器
@cuda.jit
,可以用来编写在GPU上执行的函数。
示例:使用PyCUDA
以下是一个使用PyCUDA的简单示例,展示如何在GPU上执行向量加法:
import pycuda.autoinit
import pycuda.driver as drv
import numpy as np
from pycuda.compiler import SourceModule
mod = SourceModule("""
__global__ void add_vectors(float *a, float *b, float *c, int n)
{
int idx = threadIdx.x + blockIdx.x * blockDim.x;
if (idx < n)
c[idx] = a[idx] + b[idx];
}
""")
add_vectors = mod.get_function("add_vectors")
a = np.random.randn(400).astype(np.float32)
b = np.random.randn(400).astype(np.float32)
c = np.zeros_like(a)
add_vectors(
drv.In(a), drv.In(b), drv.Out(c), np.int32(a.size),
block=(400,1,1), grid=(1,1)
)
print(c)
这个例子中,add_vectors
核函数在GPU上并行计算两个向量的和,并将结果存储在输出向量 c
中。