踩坑日常---深度学习炼丹过程

在运行PyTorch分布式任务时,NCCL错误可能由于非100%GPU使用率导致多worker在同一GPU上。解决方案包括确保每个worker使用完整GPU或切换到gloo通信库。
摘要由CSDN通过智能技术生成
控制端使用分布式训练时PORT=29502 ./tools/dist_train.sh 23.2.24
RuntimeError: NCCL error in: /pytorch/torch/lib/c10d/ProcessGroupNCCL.cpp:825, invalid usage, NCCL version 2.7.8

  运行pytorch分布式任务时,可能在执行dist.barrier()这条代码时会触发NCCL错误:RuntimeError: NCCL error in: ../torch/lib/c10d/ProcessGroupNCCL.cpp:514, invalid usage, NCCL version。

  报错原因在于每个worker申请使用的不是 100% 的 GPU,而是50%、30%等,这有可能导致多个 worker 被放到同一张 GPU 上去。NCCL 不支持多个 work 放在同一个 GPU 上。
  
  解决方案:
  1、每个worker申请100% GPU
  2、集体通信库从nccl改为gloo

  dist.init_process_group('nccl')  更改  dist.init_process_group("gloo")

未完待续。。。
  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值