英伟达野心很大,GPUDirect Storage想要颠覆英特尔的天下

8月12日消息,英伟达NVIDIA推出了名为GPUDirect存储(GPUDirect Storage)的数据传输技术,加快位在各种存储的数据,传输到GPU內存的速度,可以将带宽增加至原本的2到8倍,而且还能降低端到端的延迟达3.8倍。 

 

由于人工智能以及高效能运算的数据集规模不断增加,应用程序载入数据花费的时间越来越长,进而影响了应用程序的性能,而且特别是端到端架构,会因为缓慢的I/O使得运算速度日益提升的GPU无用武之地。

英伟达提到,将数据从存储器载入到GPU,过去都是由CPU负责,而这将会成为硬件性能的瓶颈。 

数据从NVMe磁盘传输到GPU內存的标准路径,是使用系统內存中的回弹缓存(Bounce Buffer)也就是额外的数据拷贝。而GPUDirect存储技术避免使用回弹缓存,以减少额外的数据副本,并使用直接內存存取引擎(Direct Memory Access,DMA)将数据直接放到GPU內存中,为远端或是本地存储。诸如NVMe或NVMe over Fabric,和GPU內存之间,建立一个直接传输数据的路径,而这能有效减轻CPU I/O的瓶颈,提升I/O带宽和传输数据的量。 

 

英伟达发展GPUDirect存储技术,大幅提升GPU载入大型数据集的速度。英伟达提到,GPUDirect存储技术的主要功能,就是通过这个新的系统,以直接內存的存取方式,将数据传输至GPU內存上。(新闻来源:NVIDIA)

其实,早在2011年来自NVIDIA的熟悉解决方案架构师Simon See就介绍过CUDA在并行运算方面做出的改善。当时的CUDA 4.0版本就包含一些新的技术,包括GPUDirect 2.0、Unified Virtual Addressing和Thrust技术。 

GPUDirect 2.0允许多GPU共同直接分享数据,而无需经过系统内存。而Unified Virtual Addressing可以在CPU和 多GPU之间建立一个连续的内存空间。而最重要的Thrust技术则可以加速并行C++程序,并且使得并行应用端口的连接更加方便。

可见GPUDirect Storage的推出,也是有所技术传承的,这与之前的GPUDirect 2.0有着很大的关系。

当然,GPUDirect Storage也是属于CUDA 5.0版本中的技术集而已。CUDA 5.0版本比之前的4.0更强大。

阿明观察评论:英伟达的野心很大,新的GPUDirect Storage想要颠覆现有的英特尔CPU架构,从而可以将GPU发挥出更大的效能,赢得一个全新的GPU世界。

心有多大胆,地有多大产。从GPU的持续创新来看,我还是非常佩服英伟达NVIDIA的。

因此,英特尔对此如何对策?值得进一步深挖。

——Aming编辑评论——

 ?

欢迎文末留言评论!文来源:阿明独立自媒体,版权所有,侵权必究,转载请授权

本文章和作者回复仅代表该作者个人观点,不构成任何投资建议

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值