python -m torch.distributed.launch --nproc_per_node=2 --master_port=1238 train.py
# 改成:
torchrun --standalone --nnodes=1 --nproc_per_node=2 train.py
# nnodes=1指单机,nproc_per_node指双卡。
使用torchrun取代torch.distributed.launch
最新推荐文章于 2024-05-17 21:51:35 发布