使用单机多卡GPU训练网络,数据并行模式,问题总结!!!!!!!!!!

1.设置GPU可显有哪些

from torch.nn import DataParallel

os.environ["CUDA_VISIBLE_DEVICES"] = '3,4,5,6,7'
2.设置device为GPU
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
3.使用nn.DataParallel来切换多GPU格式

if torch.cuda.device_count() > 1:
     print("Let's use", torch.cuda.device_count(), "GPUs!")#打印可用GPU
model.to(device)
model = DataParallel(model)

4.数据并行模式:系统会自动将数据放在各个GPU上,模型参数也会各自复制一份在各个模型上,但是当GPU内存不足时他会将模型切分多个部分,因此在保存模型时要保留完整的模型,示例如下:

 if best_dice < val_dice:
      best_dice = val_dice
      best_model=self.model.module.state_dict()###关键点:model.module将完整参数取回
      name = "{}_BEST.pth".format(os.path.basename(self.args.save))
      # print(self.args.save)
      torch.save(best_model, os.path.join(self.args.save, name))

注意:在调试过程中犯了几个错误:
1.首先非必要不要指定某个GPU存放模型参数,因为在后续训练过程中可能会因为内存问题导致训练中断;
2.在存模型时只需要将参数赋给某个变量,不要将整个模型都使用model=model.module,这会导致原本使用多GPU训练,而加上这句后,模型使用一个GPU训练,中断训练过程。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值