CUDA程序优化小记(八)
CUDA全称Computer Unified Device Architecture(计算机统一设备架构),它的引入为计算机计算速度质的提升提供了可能,从此微型计算机也能有与大型机相当计算的能力。可是不恰当地使用CUDA技术,不仅不会让应用程序获得提升,反而会比普通CPU的计算还要慢。最近我通过学习《GPGPU编程技术》这本书,深刻地体会到了这一点,并且用CUDA Runtime应用改写书上的例子程序来体会CUDA技术给我们计算能力带来的提升。
原创文章,反对未声明的引用。原博客地址:http://blog.csdn.net/gamesdev/article/details/18867665
CUDA虽然能够让类C语言代码执行在GPU上,但是需要注意的是,由于GPU和CPU架构上的差异,无法将C语言上所有的概念都映射到CUDA上来。一个类似的例子是在OpenGL的着色语言GLSL中虽然能够支持流程控制(flow control),即支持while、do while和for循环,但是循环的次数必须是固定的,而不能由变量指定。这就限制了更加复杂的计算。事实上,CPU能够支持完整的算术和逻辑指令集,并且具有分支预测的能力,能保持极低的内存误访问率。可是GPU的硬件设计使其拥有上百万个标量处理器,因此每个标量处理器的设计就变得相当简单,只能支持基本的算术和逻辑指令。同时GPU的计算要求并行,过于复杂的计算指令会使处于同一warp的线程造成潜在的阻塞,导致串行化(sequentialize),这样不利于计算效率的提升,总之了解GPU