浅谈深度学习GPU算力飞跃的背后,英伟达CUDA的关键性押注
在如今人工智能火热的大背景下,Nvidia无疑是其中最大的赢家。国内外每一家涉及到AI产品业务的公司,都有在使用Nvidia的芯片。你或许会好奇,Nvidia是如何从称霸游戏显卡市场到成为人工智能巨头的?Nvidia的答案很明确,一个有“强迫症”的老板和十多年前的一次关键押注。
众所周知,Nvidia的GPU在目前是云端人工智能加速的主流解决方案。究其根本,并非其他AI芯片公司的峰值算力不够,而是在生态上难以与Nvidia的CUDA生态做竞争,在软件方案上缺乏Nvidia CUDA这样的完整编程和工具链,而这些完整的工具链需要长时间积累,这也正是Nvidia最高的壁垒。
CUDA是什么?
CUDA技术,是一种基于Nvidia图形处理器(GPU)上全新的并行计算体系架构。作为一个专用高性能GPU计算解决方案,Nvidia把超级计算能够带给任何工作站或服务器,以及标准、基于CPU的服务器集群。
对于Nvidia如今在人工智能训练芯片市场确立的垄断性地位,某种程度上也要归功于十年前英伟达首席科学家戴维·柯克一系列在当时看来风险极高的疯狂决策。
一方面,他竭尽全力劝服CEO黄仁勋把GPU通用化——让一块只能渲染图形的独立显卡,变成一个通用计算图形处理器(GPGPU);另一方面强烈要求英伟达现有与即将推出的所有GPU都必须支持Cuda程序。