就直接按照他这个错误的指引来就行了,再代码的全局加一句
torch.distributed.init_process_grop('nccl',init_method='file:///myfile',work_size=1,rank=0)
就直接按照他这个错误的指引来就行了,再代码的全局加一句
torch.distributed.init_process_grop('nccl',init_method='file:///myfile',work_size=1,rank=0)