MindSpore GPU单机多卡训练 1. 配置分布式环境 2. 训练脚本(train.py)需要添加的代码 3. 运行脚本 1. 配置分布式环境 OpenMPI-4.0.3:MindSpore采用的多进程通信库。 NCCL-2.7.6:Nvidia集合通信库。 2. 训练脚本(train.py)需要添加的代码 import mindspore.dataset as ds from mindspore import context from mindspore.communication.management import init, get_rank, get_group_size if __name__ == "__main__":