pytorch中的使用dataset, dataloader读取超大h5py数据文件

pytorch中的使用dataset, dataloader读取超大h5py数据文件

问题描述

训练网络时需要load一个10G左右的h5数据文件,并且包含有image多类别mask数据…

由于h5文件中的mask并未进行任何预处理,若将mask一张张取出再进行处理是非常占内存的,因此无法使用这种简单的DataLoader方式:

import h5py
from torch.utils.data import TensorDataset

f = h5py.File("xxxx.h5", 'r') 
x_data = f['image']
y_data = f['mask']
train_data= TensorDataset(x_data, y_data)
training_data_loader = DataLoader(dataset=train_data,
                                     num_workers=0,
                                     batch_size=8,
                                     drop_last=True,
                                     shuffle=True)

解决方案

继承 Dataset类 ,重新定义一个可以将数据处理成DataLoader的类

在继承 Dataset类之后,我们需要重写其中的len 方法和getitem 方法,具体可以参考这里

修改如下:

class MyDataset(data.Dataset):
    def __init__(self, archive,image='image',mask='mask'):
        self.archive = h5py.File(archive, 'r')
        self.data = self.archive[image]
        self.labels = self.archive[mask]

    def __getitem__(self, index):
        image = self.data[index]
        mask = self.get_multi_class_labels(self.labels[index])
        return image, mask

    def __len__(self):
        return len(self.labels)

    def get_multi_class_labels(self,truth, n_labels=3, labels=(0, 1, 2)):
        new_shape =  [n_labels, ]+list(truth.shape[1:])
        y = np.zeros(new_shape, np.int8)
        for label_index in range(n_labels):
            if labels is not None:
                y[label_index, :, :][truth[0, :, :] == labels[label_index]] = 1
            else:
                y[label_index, :, :][truth[0, :, :] == label_index] = 1
        return y

    def close(self):
        self.archive.close()

然后调用该类即可:

train_data = MyDataset('xxxx.h5',image='image',mask='mask')
train_loader = DataLoader(dataset=train_data,
                                  num_workers=0,
                                  batch_size=8,
                                  shuffle=True)
  • 5
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch,数据读取是构建深度学习模型的重要一环。为了高效处理大规模数据集,PyTorch提供了三个主要的工具:DatasetDataLoader和TensorDatasetDataset是一个抽象类,用于自定义数据集。我们可以继承Dataset类,并重写其的__len__和__getitem__方法来实现自己的数据加载逻辑。__len__方法返回数据集的大小,而__getitem__方法根据给定的索引返回样本和对应的标签。通过自定义Dataset类,我们可以灵活地处理各种类型的数据集。 DataLoader是数据加载器,用于对数据集进行批量加载。它接收一个Dataset对象作为输入,并可以定义一些参数例如批量大小、是否乱序等。DataLoader能够自动将数据集划分为小批次,将数据转换为Tensor形式,然后通过迭代器的方式供模型训练使用DataLoader在数据准备和模型训练的过程起到了桥梁作用。 TensorDataset是一个继承自Dataset的类,在构造时将输入数据和目标数据封装成Tensor。通过TensorDataset,我们可以方便地处理Tensor格式的数据集。TensorDataset可以将多个Tensor按行对齐,即将第i个样本从各个Tensor取出,构成一个新的Tensor作为数据集的一部分。这对于处理多输入或者多标签的情况非常有用。 总结来说,Dataset提供了自定义数据集的接口,DataLoader提供了批量加载数据集的能力,而TensorDataset则使得我们可以方便地处理Tensor格式的数据集。这三个工具的配合使用可以使得数据处理变得更加方便和高效。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值