pytorch-多卡GPU训练

一、cuda和cpu张量

记录cpu张量、cuda张量、list和array之间的转换关系。 

import torch
import numpy as np
# int -> tensor -> int
a = torch.Tensor(1)
b = a.item()
 
# list -> tensor(cpu)
l0 = [1, 2, 3]
t = torch.Tensor(l0)
 
# tensor(cpu) -> numpy -> list
a = t.numpy()
l1 = t.numpy().tolist()
 
# list -> numpy
a0 = np.array(l0)
 
# numpy -> tensor(cpu)
t1 = torch.from_numpy(a0)
 
# tensor(cpu) -> tensor(cuda)
tc = t1.cuda()
 
# tensor(cuda) -> list
l2 = tc.cpu().numpy().tolist()
 

二、多GPU多卡训练

用pytorch进行多GPU训练,只需要学会把单卡训练的代码稍微改一下即可。不用弄得太麻烦。通过一个demo来做是最快入手的。

1. 要知道机器有几张卡: 

nvidia-smi

 2. 模型用DataParallel包装一下:


device_ids = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] # 10卡机

model = torch.nn.DataParallel(model, device_ids=device_ids) # 指定要用到的设备

model = model.cuda(device=device_ids[0]) # 模型加载到设备0

3. 数据也指定设备:

X_train, y_train = X_train.cuda(device=device_ids[0]), y_train.cuda(device=device_ids[0])

这里只需要用device_ids[0]定义一个样式就好,不需要逐卡指定设备。但没这一步会报错。 

4. 最后,来看一个完整demo,有注释的地方就是与单卡训练不一样的地方


import torch

from torchvision import datasets, transforms

import torchvision

from tqdm import tqdm


device_ids = [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] # 可用GPU

BATCH_SIZE = 64


transform = transforms.Compose([transforms.ToTensor()])

data_train = datasets.MNIST(root = "./data/",

transform=transform,

train=True,

download=True)

data_test = datasets.MNIST(root="./data/",

transform=transform,

train=False)


data_loader_train = torch.utils.data.DataLoader(dataset=data_train,

# 单卡batch size * 卡数

batch_size=BATCH_SIZE * len(device_ids),

shuffle=True,

num_workers=2)


data_loader_test = torch.utils.data.DataLoader(dataset=data_test,

batch_size=BATCH_SIZE * len(device_ids),

shuffle=True,

num_workers=2)



class Model(torch.nn.Module):

def __init__(self):

super(Model, self).__init__()

self.conv1 = torch.nn.Sequential(

torch.nn.Conv2d(1, 64, kernel_size=3, stride=1, padding=1),

torch.nn.ReLU(),

torch.nn.Conv2d(64, 128, kernel_size=3, stride=1, padding=1),

torch.nn.ReLU(),

torch.nn.MaxPool2d(stride=2, kernel_size=2),

)

self.dense = torch.nn.Sequential(

torch.nn.Linear(14 * 14 * 128, 1024),

torch.nn.ReLU(),

torch.nn.Dropout(p=0.5),

torch.nn.Linear(1024, 10)

)

def forward(self, x):

x = self.conv1(x)

x = x.view(-1, 14 * 14 * 128)

x = self.dense(x)

return x



model = Model()

# 指定要用到的设备

model = torch.nn.DataParallel(model, device_ids=device_ids)

# 模型加载到设备0

model = model.cuda(device=device_ids[0])


cost = torch.nn.CrossEntropyLoss()

optimizer = torch.optim.Adam(model.parameters())

from time import sleep

n_epochs = 50

for epoch in range(n_epochs):

running_loss = 0.0

running_correct = 0

print("Epoch {}/{}".format(epoch, n_epochs))

print("-"*10)

for data in tqdm(data_loader_train):

X_train, y_train = data

# 指定设备0

X_train, y_train = X_train.cuda(device=device_ids[0]), y_train.cuda(device=device_ids[0])

outputs = model(X_train)

_,pred = torch.max(outputs.data, 1)

optimizer.zero_grad()

loss = cost(outputs, y_train)


loss.backward()

optimizer.step()

running_loss += loss.data.item()

running_correct += torch.sum(pred == y_train.data)

testing_correct = 0

for data in data_loader_test:

X_test, y_test = data

# 指定设备1

X_test, y_test = X_test.cuda(device=device_ids[0]), y_test.cuda(device=device_ids[0])

outputs = model(X_test)

_, pred = torch.max(outputs.data, 1)

testing_correct += torch.sum(pred == y_test.data)

print("Loss is:{:.4f}, Train Accuracy is:{:.4f}%, Test Accuracy is:{:.4f}".format(torch.true_divide(running_loss, len(data_train)),

torch.true_divide(100*running_correct, len(data_train)),

torch.true_divide(100*testing_correct, len(data_test))))

torch.save(model.state_dict(), "model_parameter.pkl")

通过上面程序改造的方法,便可以把单卡训练改造成了多卡训练。当然,有些自定义的sampler,dataloader可能也要相应改之,具体问题具体处理。

我在另一个训练任务上,完全激活了10卡同时训练:10个2080ti,没有炫卡的意思(逃)

参考文献:

https://www.cnblogs.com/fanghao/p/10334631.html

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

DLANDML

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值