单gpu训练时一切正常,换成2个gpu时,loss的tensor里面有两个值,最开始怀疑是每个gpu都产生一个值,后用4个gpu验证发现,还真是这样。
pytorch多gpu训练踩坑记录----使用DataParallel
最新推荐文章于 2021-11-15 15:58:05 发布
单gpu训练时一切正常,换成2个gpu时,loss的tensor里面有两个值,最开始怀疑是每个gpu都产生一个值,后用4个gpu验证发现,还真是这样。