PyTorch中DataLoader与Dataset的使用、关系&原理

本文介绍了PyTorch中的DataLoader和Dataset的使用和原理。DataLoader是可迭代的数据装载器,用于批量加载数据,而Dataset是抽象类,自定义数据集需要继承并重写__getitem__函数。DataLoader通过sampler获取样本索引,利用Dataset的getitem读取数据。Dataloader的collate_fn负责整理数据成batch。
摘要由CSDN通过智能技术生成

DataLoader(torch.utils.data.DataLoader)

功能:构建可迭代的数据装载器

类中的几个主要变量定义功能介绍如下,除此之外还有11个参数
dataset:Dataset类,决定数据从哪里读取以及如何读取
batchsize:批处理的大小
num_works:是否多进程读取数据
shuffle:每个epoch是否乱序 (true or false)
drop_last:当样本数不能被batchsize整除时,是否丢弃最后一批数据。(true or false)

Dataset(torch.utils.data.Dataset)

功能:Dataset是一个抽象类,所有自定义的Dataset都需要继承这个父类,并且重载其中的__getitem__()函数。
getitem:输入是索引,输出是样本(加标签),也就是定义了索引到样本的映射规则。

代码示例

以图像的分类任务为例(代码中具体是人民币图像识别1元与100元,进行面值二分类任务),重点观察dataset与dataloader如何完成数据读取的任务。
首先主函数中有如下定义

train_data = RMBDataset(data_dir=train_dir, transform=train_transform)
valid_data = RMBDataset(data_dir=valid_dir, transform=valid_transform)

train_loader = DataLoader(dataset=train_data, batch_size=BATCH_SIZE, shuffle=True
PyTorch,数据读取是构建深度学习模型的重要一环。为了高效处理大规模数据集,PyTorch提供了三个主要的工具:DatasetDataLoader和TensorDatasetDataset是一个抽象类,用于自定义数据集。我们可以继承Dataset类,并重写其的__len__和__getitem__方法来实现自己的数据加载逻辑。__len__方法返回数据集的大小,而__getitem__方法根据给定的索引返回样本和对应的标签。通过自定义Dataset类,我们可以灵活地处理各种类型的数据集。 DataLoader是数据加载器,用于对数据集进行批量加载。它接收一个Dataset对象作为输入,并可以定义一些参数例如批量大小、是否乱序等。DataLoader能够自动将数据集划分为小批次,将数据转换为Tensor形式,然后通过迭代器的方式供模型训练使用DataLoader在数据准备和模型训练的过程起到了桥梁作用。 TensorDataset是一个继承自Dataset的类,在构造时将输入数据和目标数据封装成Tensor。通过TensorDataset,我们可以方便地处理Tensor格式的数据集。TensorDataset可以将多个Tensor按行对齐,即将第i个样本从各个Tensor取出,构成一个新的Tensor作为数据集的一部分。这对于处理多输入或者多标签的情况非常有用。 总结来说,Dataset提供了自定义数据集的接口,DataLoader提供了批量加载数据集的能力,而TensorDataset则使得我们可以方便地处理Tensor格式的数据集。这三个工具的配合使用可以使得数据处理变得更加方便和高效。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值