DistributedDataParallel介绍
为什么使用DistributedDataParallel
在并行训练中使用DataParallel进行分布式运算时容易遇到list没有复制到GPU等各种问题,导致无法进行分布式计算,然而pytorch推荐的DistributedDataParallel能大大降低bug的发生,因此本文介绍一下DistributedDataParallel函数的正确使用。
DistributedDataParallel使用方法
parser.add_argument('--local_rank', default=-1, type=int)
args