pytorch调用多GPU及GPU选择

pytorch多卡调用与选择

单机多卡

第一步,查看gpu环境:
执行:nvidia-smi
第二步,gpu选择:
执行:os.environ['CUDA_VISIBLE_DEVICES'] = '0,3'
将gpu环境设定为0卡和3卡。
使用显卡训练有两个部分需要进行挂gpu。
1数据:直接

inputs = inputs.cuda() 
labels = labels.cuda()

在模型上并行我们需要:

model = nn.DataParallel(model) # or torch.nn.DataParallel(net,device_ids=[0,1]).cuda()
model = model.cuda()

平衡DataParallel带来的显存使用不平衡:
使用DistributedDataParallel来代替DataParallel
初始化:

torch.distributed.init_process_group(backend='nccl', init_method='tcp://localhost:23456', rank=0, world_size=1)

分发:

torch.distributed.init_process_group(backend="nccl")
model = DistributedDataParallel(model) # device_ids will include all GPU devices by default

但是这里需要注意的是, 如果使用这句代码, 直接在pycharm或者别的编辑器中,是没法正常运行的, 因为这个需要在shell的命令行中运行, 如果想要正确执行这段代码, 假设这段代码的名字是main.py, 可以使用如下的方法进行:

python -m torch.distributed.launch main.py

多机多卡任务还未试验过,暂不书写,详细方法可以参考多GPU使用

https://zhuanlan.zhihu.com/p/86441879
博主写的很详细。

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值