pytorch指定用多张显卡训练_Pytorch 多GPU训练-单运算节点-All you need

概述

Pytorch多GPU训练本质上是数据并行,每个GPU上拥有整个模型的参数,将一个batch的数据均分成N份,每个GPU处理一份数据,然后将每个GPU上的梯度进行整合得到整个batch的梯度,用整合后的梯度更新所有GPU上的参数,完成一次迭代。

其中多gpu训练的方案有两种,一种是利用nn.DataParallel实现,这种方法是最早引入pytorch的,使用简单方便,不涉及多进程。另一种是用torch.nn.parallel.DistributedDataParallel 和

torch.utils.data.distributed.DistributedSampler 结合多进程实现,第二种方式效率更高,参考,但是实现起来稍难, 第二种方式同时支持多节点分布式实现。方案二的效率要比方案一高,即使是在单运算节点上,参考pytorch doc:

In the single-machine synchronous case, torch.distributed or the torch.nn.parallel.DistributedDataParallel() wrapper may still have advantages over other approaches to data parallelism, including torch.nn.DataParallel():

本篇文章将详细介绍这两种方式的实现,只限于单机上实现,分布式较为复杂,下一篇文章再介绍。

参考:

方案一

步骤

将model用nn.DataParallel wrap.

model = nn.DataParallel(model)

用os.environ["CUDA_VISIBLE_DEVICES"]="0"指定当前程序可以使用GPU设备号,如果不指定将会使用设备上所有的GPU设备。

os.environ["CUDA_VISIBLE_DEVICES"]="0,1,2" #使用3个GPU

model.cuda()或者model.to("cuda")和data.cuda()或者data.to("cuda")将模型和数据放入GPU上。

训练过程与使用单GPU一致,使用这种方法,pytorch会自动的将batch数据拆分为N份(N是用os.environ指定的GPU数量),分别forward,backward,然后自动整合每个GPU上的梯度,在一块GPU上update参数,最后将参数广播给其他GPU,完成一次迭代。

测试

代码:

展开

import torch

import torch.nn as nn

from torch.utils.data import Dataset, DataLoader

import os

# dataset

class RandomDataset(Dataset):

def __init__(self, size, length):

self.len = length

self.data = torch.randn(length, size)

def __getitem__(self, index):

return self.data[index]

def __len__(self):

return self.len

# model define

class Model(nn.Module):

# Our model

def __init__(self, input_size, output_size):

super(Model, self).__init__()

self.fc = nn.Linear(input_size, output_size)

def forward(self, input):

output = self.fc(input)

print("\tIn Model: input size", input.size(),

"output size", output.size())

return output

if __name__=="__main__":

# Parameters

input_size = 5

output_size = 2

batch_size = 30

data_size = 100

dataset = RandomDataset(input_size, d

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值