pytorch分布式报错AssertionError: Default process group is not initialized
在pytorch中分布式中,dist.barrier()中报错AssertionError: Default process group is not initialized。
可以尝试:
import torch.distributed as dist
dist.init_process_group('gloo', init_method='file:///tmp/somefile', rank=0, world_size=1)
具体的原因我也不太懂,但是可以运行了
本文介绍了在使用PyTorch进行分布式训练时遇到的AssertionError: Default process group is not initialized错误,并提供了一种可行的解决方案。
912

被折叠的 条评论
为什么被折叠?



