PyTorch DataLoader 源代码 - 调试阶段(pytorch系列-32)

PyTorch DataLoader 源代码 - 调试阶段

在本集中,我们将继续上集数据标准化的地方。只是这一次,我们将要调试代码,而不是编写代码,尤其是要调试PyTorch源代码,以查看规范化数据集时到底发生了什么。
在这里插入图片描述

调试PyTorch源代码的简短程序

在我们开始调试之前,我们只想给我们快速概述一下我们编写的程序,这将使我们能够逐步看到数据集的归一化,并看到它在hood和PyTorch下面到底是如何完成的。

import torch
import torchvision
import torchvision.transforms as transforms
import torch.nn as nn

from torch.utils.data import DataLoader

正如我们在上一集所讨论的,我们有平均值和标准差值。现在,我们不需要计算这些,我们只需要把这些值拉出来,然后硬编码到程序里。

mean = 0.2860347330570221
std = 0.3530242443084717

我们不想费尽周折地重新计算这些值,所以我们在这里对它们进行了硬涂层。我们有了平均值和标准差,我们知道我们需要这两个值来对数据集的每个成员或每个像素进行归一化。

接下来,我们使用FashionMNIST类构造函数初始化我们的训练集。这里需要注意的关键点是transforms

train_set = torchvision.datasets.FashionMNIST(
    root='./data'
    ,train=True
    ,download=True
    ,transform=transforms.Compose([
        transforms.ToTensor()
        , transforms.Normalize(mean, std)
    ])
)

transforms第一个配置是将pill image转换为张量,然后第二个配置是归一化变换,它要对我们的数据进行归一化。我们的目标是在源代码中验证这个特殊的变换是如何工作的。

最后,我们创建一个DataLoader并使用它。

loader = DataLoader(train_set, batch_size=1)
image, label = next(iter(loader))

调试PyTorch源代码

好了,现在我们准备好实际调试了。为了调试,我们将继续前进,并确保我们已经选择了我的python运行配置,然后我们将点击,开始调试。
使用此链接可以访问PyTorch DataLoader类的当前源代码。本讨论假定使用PyTorch版本1.5.0

The Sampler: To Shuffle Or Not

采样器是获取索引值的对象,它将用于从底层数据集中获取实际值。我们可以看到,有两个特殊的采样器是相关的,随机采样器和顺序采样器。如果shuffle值为,则true采样器将为随机采样器,否则为连续采样器。

批次大小的使用方式

我们发现采样器用于在以下代码中收集索引值:

def __iter__(self):
    batch = []
    for idx in self.sampler:
        batch.append(idx)
        if len(batch) == self.batch_size:
            yield batch
            batch = []
    if len(batch) > 0 and not self.drop_last:
        yield batch

在这里,我们可以看到batch_size参数在起作用,因为它限制了所收集索引值的数量。
请注意,yield此处的关键字注意,使得这个迭代器变成了所谓的generator
获取索引值后,它们将通过以下方式用于获取数据:

def fetch(self, possibly_batched_index):
    if self.auto_collation:
        data = [self.dataset[idx] for idx in possibly_batched_index]
    else:
        data = self.dataset[possibly_batched_index]
    return self.collate_fn(data)   

就像这样,从底层数据集中提取每个样本的工作。

data = [self.dataset[idx] for idx in possibly_batched_index]

这种语法或符号被称为列表理解。
这将返回一个数据元素的列表,然后使用 collate_fn()方法提取并放入一个单一的批量张量。

标准化数据集

最后,我们发现返回给批处理的每个元素都使用normalize()功能性api 的功能进行了规范化。

def normalize(tensor, mean, std, inplace=False):
    """Normalize a tensor image with mean and standard deviation.
    tensor.sub_(mean).div_(std)
    return tensor

请注意,数据集类调用了一个转换,然后调用了功能性api。我们还遇到了一些错误的设计,需要进行一些修改才能保持一致。

请注意,此处使用“ 黑客 ”一词是指我们看到代码在进行不必要的转换。
在本集中,我们调试了PyTorch DataLoader,以查看如何从PyTorch数据集中提取数据并对其进行规范化。我们看到了几个构造函数参数的影响,并看到了如何构建批处理。

英文原文链接是:https://deeplizard.com/learn/video/bMvYJQrZJbM

### 回答1: PyTorch DataLoader是一个用于批量加载数据的工具,它可以帮助用户在训练模型时高效地加载和处理大规模数据集。DataLoader可以根据用户定义的批量大小、采样方法、并行加载等参数来自动将数据集分成小批量,并且可以在GPU上并行加载数据以提高训练效率。 使用DataLoader需要先定义一个数据集对象,然后将其传递给DataLoader。常用的数据集对象包括PyTorch自带的Dataset类和用户自定义的数据集类。在DataLoader中可以指定批量大小、是否打乱数据、并行加载等参数。 下面是一个示例代码: ```python import torch from torch.utils.data import Dataset, DataLoader class MyDataset(Dataset): def __init__(self): self.data = torch.randn(100, 10) self.label = torch.randint(0, 2, size=(100,)) def __getitem__(self, index): return self.data[index], self.label[index] def __len__(self): return len(self.data) dataset = MyDataset() dataloader = DataLoader(dataset, batch_size=10, shuffle=True, num_workers=2) for data, label in dataloader: print(data.shape, label.shape) ``` 在上面的示例中,我们定义了一个自己的数据集类MyDataset,并将其传递给DataLoader。然后指定了批量大小为10,打乱数据,使用2个进程来并行加载数据。在循环中,每次从DataLoader中取出一个批量的数据和标签,并输出它们的形状。 ### 回答2: PyTorchDataLoader是一个用于加载数据的实用工具。它可以帮助我们高效地加载和预处理数据,以供深度学习模型使用。 DataLoader有几个重要参数。首先是dataset,它定义了我们要加载的原始数据集。PyTorch提供了几种内置的数据集类型,也可以自定义数据集。数据集可以是图片、文本、音频等。 另一个重要参数是batch_size,它定义了每个批次中加载的数据样本数量。这是非常重要的,因为深度学习模型通常需要在一个批次上进行并行计算。较大的批次可以提高模型的训练速度,但可能需要更多的内存。 DataLoader还支持多线程数据加载。我们可以使用num_workers参数来指定并行加载数据的线程数。这可以加快数据加载的速度,特别是当数据集很大时。 此外,DataLoader还支持数据的随机打乱。我们可以将shuffle参数设置为True,在每个轮次开始时随机重新排序数据。这对于训练深度学习模型非常重要,因为通过在不同轮次中提供不同样本的顺序,可以增加模型的泛化能力。 在使用DataLoader加载数据后,我们可以通过迭代器的方式逐批次地获取数据样本。每个样本都是一个数据批次,包含了输入数据和对应的标签。 总的来说,PyTorchDataLoader提供了一个简单而强大的工具,用于加载和预处理数据以供深度学习模型使用。它的灵活性和可定制性使得我们可以根据实际需求对数据进行处理,并且能够高效地并行加载数据,提高了训练的速度。 ### 回答3: PyTorchDataLoader是一个用于数据加载和预处理的实用程序类。它可以帮助我们更有效地加载和处理数据集,并将其用于训练和评估深度学习模型。 DataLoader的主要功能包括以下几个方面: 1. 数据加载:DataLoader可以从不同的数据源中加载数据,例如文件系统、内存、数据库等。它接受一个数据集对象作为输入,该数据集对象包含实际的数据和对应的标签。DataLoader可以根据需要将数据集分成小批量加载到内存中,以减少内存占用和加速训练过程。 2. 数据预处理:DataLoader可以在加载数据之前对数据进行各种预处理操作,包括数据增强、标准化、裁剪和缩放等。这些预处理操作可以提高模型的泛化能力和训练效果。 3. 数据迭代:DataLoader将数据集划分为若干个小批量,并提供一个可迭代的对象,使得我们可以使用for循环逐个访问这些小批量。这种迭代方式使得我们能够更方便地按批次处理数据,而无需手动编写批处理循环。 4. 数据并行加载:DataLoader支持在多个CPU核心上并行加载数据,以提高数据加载的效率。它使用多线程和预读取的机制,在一个线程中预先加载数据,而另一个线程处理模型的训练或推理过程。 总之,PyTorchDataLoader是一个方便且高效的工具,帮助我们更好地管理和处理数据集。它可以加速深度学习模型的训练过程,并提供了一种简单而灵活的数据加载和迭代方式。使用DataLoader可以让我们更专注于模型的设计和调优,而无需过多关注数据的处理和加载细节。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值