CUDA-aware MPI

CUDA-aware MPI

https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#changes-from-previous-version

例子:OpenMPI

用处:透明的把Host主存orGPU内存里的数据发送到对方Host主存orGPU内存; (省去了手动在Host和GPU之间Copy)

UVA,统一地址空间,例如Host主存映射到0~32GB, GPU主存映射到32GB~48GB,所以MPI调用无需对地址来自哪里的参数,从地址上进行区分的

2个最大的优点:

1. 所有消息传递,都可以pipeline起来(应该是指大块内存分成小块,然后pipeline传输,设备A传第1块的时候设备2在传第2块)

2. 利用了GPUDirect等技术,把传输路径进行了精简;

以下是GPUDirect的好处:

1. Node和Node之间通信(Inter-Node)

2. 同一Node之间各GPU通信(Intra-Node)

3. 省去在Pinned主存之间Copy的环节 (主存和CUDA之间有一类pinned buffer; 主存和网络之间有一类pinned buffer;二者不是一回事儿)

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值