pytorch学习(4)数据并行

本文介绍了如何在PyTorch中利用DataParallel进行模型的数据并行训练,讲解了将模型和张量迁移到GPU以及DataParallel的工作原理。虽然作者目前只有一个GPU,但阐述了在拥有多个GPU的情况下,数据如何被分割并在不同GPU上并行处理,最后展示了简单的代码示例。
摘要由CSDN通过智能技术生成

pytorch学习(4)数据并行

pytorch60分钟教程最后一篇,这次学习如何使用DataParallel来调用多个GPU(然而实验室的GPU我还没用过)
在前面的学习中我们知道用如下方法来使用GPU:
把模型放入GPU中:

device = torch.device("cuda:0")
model.to(device)

把张量放入GPU中:

mytensor = my_tensor.to(device)

而通过 model = nn.DataParallel(model) 我们可以让数据集被分割送入不同的GPU,运行完成后再收集回来。

举个栗子:
先创建一个假数据集:

import torch
import torch.nn as nn
from torch.utils.data import Dataset, DataLoader

# Parameters and DataLoaders
input_size = 5
output_size = 2

batch_size = 30
data_size = 100

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

class RandomDataset(Dataset):

    def __init__(self, size, length):
        self.len = length
        self.data = torch.randn(length, size)

    def __getitem__(self, index):
        return self.data[index]

    def __len__(self):
        return self.len

rand_loader = DataLoader(dataset=RandomDataset(input_size, data_size),
                         batch_size=batch_size, shuffle=True)

创建一个简单模型:

class Model(nn.Module):
    
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值