因项目需要,开始学习OpenCL了,这是基于我正在阅读的资料,整理出的一个摘要。方便以后自己回顾以及其他同学参考。没有列出所有函数的参数和返回值列表,可查询文档:
https://www.khronos.org/registry/cl/sdk/2.0/docs/man/xhtml/
资料来源:OpenCL 2.0Reference Pages,AMD OpenCL大学课程ppt,OpenCL贴吧。
并行
任务并行:把一个问题分解为能够同时执行的多个任务。
数据并行:同一个任务内,它的各个部分同时执行。
多核GPU适合基于任务的并行编程,GPU更适应于数据并行编程。
在GPU上,一般通过循环展开(Loopstrip mining 技术),来把串行代码改成并行执行的。
GPU的程序一般称作Kernel程序,它是一种SPMD的编程模型。SPMD执行同一段代码的多个实例,每个实例对数据的不同部分进行操作。
在数据并行应用中,用loop stripmining来实现SPMD是最常用的方法:
- 在分布式系统中,我们用MessagePassing Interface (MPI)来实现SPMD。
- 在共享内存并行系统中,我们用POSIX线程来实现SPMD。
- 在GPU中,我们就是用Kernel来显现SPMD。
在现代CPU上,创建回一个线程的开销很大,如果要在CPU上实现SPMD,每个线程处理的数据块就要尽量大点,做更多的事情,以便减少平均线程开销。但在GPU上,都是轻量级的线程,创建、调度线程的开销比较小,所以我们可以做到把循环完全展开,一个线程处理一个数据。
GPU上并行编程的硬件一般称作SIMD。通常,发射一条指令后,它要在多个ALU单元中执行(ALU的数量即使simd的宽度),这种设计减少了控制流单元以级ALU相关的其他硬件数量。
OpenCL架构
OpenCL可以实现混合设备的并行计算,这些设备包括CPU,GPU,以及其它处理器,比如Cell处理器,DSP等。使用OpenCL编程,可以实现可移植的并行加速代码。但由于各个OpenCL device不同的硬件性能,可能对于程序的优化还要考虑具体的硬件特性。