8月12日消息,英伟达NVIDIA推出了名为GPUDirect存储(GPUDirect Storage)的数据传输技术,加快位在各种存储的数据,传输到GPU內存的速度,可以将带宽增加至原本的2到8倍,而且还能降低端到端的延迟达3.8倍。
由于人工智能以及高效能运算的数据集规模不断增加,应用程序载入数据花费的时间越来越长,进而影响了应用程序的性能,而且特别是端到端架构,会因为缓慢的I/O使得运算速度日益提升的GPU无用武之地。
英伟达提到,将数据从存储器载入到GPU,过去都是由CPU负责,而这将会成为硬件性能的瓶颈。
数据从NVMe磁盘传输到GPU內存的标准路径,是使用系统內存中的回弹缓存(Bounce Buffer)也就是额外的数据拷贝。而GPUDirect存储技术避免使用回弹缓存,以减少额外的数据副本,并使用直接內存存取引擎(Direct Memory Access,DMA)将数据直接放到GPU內存中,为远端或是本地存储。诸如NVMe或NVMe over Fabric,和GPU內存之间,建立一个直接传输数据的路径,而这能有效减轻CPU I/O的瓶颈,提升I/O带宽和传输数据的量。
英伟达发展GPUDirect存储技术,大幅提升GPU载入大型数据集的速度。英伟达提到,GPUDirect存储技术的主要功能,就是通过这个新的系统,以直接內存的存取方式,将数据传输至GPU內存上。(新闻来源:NVIDIA)
其实,早在2011年来自NVIDIA的熟悉解决方案架构师Simon See就介绍过CUDA在并行运算方面做出的改善。当时的CUDA 4.0版本就包含一些新的技术,包括GPUDirect 2.0、Unified Virtual Addressing和Thrust技术。
GPUDirect 2.0允许多GPU共同直接分享数据,而无需经过系统内存。而Unified Virtual Addressing可以在CPU和 多GPU之间建立一个连续的内存空间。而最重要的Thrust技术则可以加速并行C++程序,并且使得并行应用端口的连接更加方便。
可见GPUDirect Storage的推出,也是有所技术传承的,这与之前的GPUDirect 2.0有着很大的关系。
当然,GPUDirect Storage也是属于CUDA 5.0版本中的技术集而已。CUDA 5.0版本比之前的4.0更强大。
阿明观察评论:英伟达的野心很大,新的GPUDirect Storage想要颠覆现有的英特尔CPU架构,从而可以将GPU发挥出更大的效能,赢得一个全新的GPU世界。
心有多大胆,地有多大产。从GPU的持续创新来看,我还是非常佩服英伟达NVIDIA的。
因此,英特尔对此如何对策?值得进一步深挖。
——Aming编辑评论——
你
怎
么
看
?
欢迎文末留言评论!文来源:阿明独立自媒体,版权所有,侵权必究,转载请授权
本文章和作者回复仅代表该作者个人观点,不构成任何投资建议