Pytorch backend 通信后端

分布式训练中,通信后端的选择对模型训练速度影响显著,NCCL(NVIDIA推出)在支持的硬件上通常表现最佳,其次是Gloo和MPI(OpenMPI)。对于非NVIDIA显卡的环境,可以考虑使用Gloo或MPI进行通信。正确的通信模式和后端能提升训练效率2~10倍。
摘要由CSDN通过智能技术生成

        是在DDP等分布式模式中的概念。分布式通信过程主要是完成模型训练过程中参数信息的传递,主要考虑通信后端和通信模式选择,后端与模式对整个训练的收敛速度影响较大,相差可达2~10倍。

       backend 通信后端可选的包括:nccl(NVIDIA推出)、gloo(Facebook推出)、 mpi(OpenMPI)。从测试的效果来看,如果显卡支持nccl,建议后端选择nccl,,其它硬件(非N卡)考虑用gloo、mpi(OpenMPI)。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值