torch.utils.data.DataLoader

3 篇文章 0 订阅
1 篇文章 0 订阅

torch.utils.data.DataLoader

参数:

  • dataset:(数据类型 dataset)

输入的数据类型,这里是原始数据的输入。PyTorch内也有这种数据结构。

  • batch_size:(数据类型 int)

批训练数据量的大小,根据具体情况设置即可(默认:1)。PyTorch训练模型时调用数据不是一行一行进行的(这样太没效率),而是一捆一捆来的。这里就是定义每次喂给神经网络多少行数据,如果设置成1,那就是一行一行进行(个人偏好,PyTorch默认设置是1)。每次是随机读取大小为batch_size。如果dataset中的数据个数不是batch_size的整数倍,这最后一次把剩余的数据全部输出。若想把剩下的不足batch size个的数据丢弃,则将drop_last设置为True,会将多出来不足一个batch的数据丢弃。

  • shuffle:(数据类型 bool)

洗牌。默认设置为False。在每次迭代训练时是否将数据洗牌,默认设置是False。将输入数据的顺序打乱,是为了使数据更有独立性,但如果数据是有序列特征的,就不要设置成True了。

  • collate_fn:(数据类型 callable,没见过的类型)

将一小段数据合并成数据列表,默认设置是False。如果设置成True,系统会在返回前会将张量数据(Tensors)复制到CUDA内存中。

  • batch_sampler:(数据类型 Sampler)

批量采样,默认设置为None。但每次返回的是一批数据的索引(注意:不是数据)。其和batch_size、shuffle 、sampler and drop_last参数是不兼容的。我想,应该是每次输入网络的数据是随机采样模式,这样能使数据更具有独立性质。所以,它和一捆一捆按顺序输入,数据洗牌,数据采样,等模式是不兼容的。

sampler:(数据类型 Sampler)

采样,默认设置为None。根据定义的策略从数据集中采样输入。如果定义采样规则,则洗牌(shuffle)设置必须为False。

  • num_workers:(数据类型 Int)

工作者数量,默认是0。使用多少个子进程来导入数据。设置为0,就是使用主进程来导入数据。注意:这个数字必须是大于等于0的,负数估计会出错。

  • pin_memory:(数据类型 bool)

内存寄存,默认为False。在数据返回前,是否将数据复制到CUDA内存中。

  • drop_last:(数据类型 bool)

丢弃最后数据,默认为False。设置了 batch_size 的数目后,最后一批数据未必是设置的数目,有可能会小些。这时你是否需要丢弃这批数据。

报错 RuntimeError: CUDA error: mapping of buffer object failed

错误提示

  • Producer process has been terminated before all shared CUDA tensors released. See Note [Sharing CUDA tensors]
    在这里插入图片描述

报错原因

因为windows操作系统的原因,在Windows中,多进程multiprocessing使用的是序列化pickle来在多进程之间转移数据,而socket对象是不能被序列化的,但是在linux操作系统上却没问题,因为在linux上多进程multiprocessing使用的是没有问题的,所以在windows上可以改用多线程。因为网络通信属于io密集型的操作,对cpu计算要求不高,不用多进程,用多线程就行。

令num_workers=0,记得无论是参数设置还是数据集读取处理的代码都要重新设置。

解决办法

loader = torch.utils.data.DataLoader(dataset=dataset,
                                     batch_size=self.batch,
                                	 shuffle=self.shuf,
                                     num_workers=0, # 在win上运行,使用多线程模式,多进程会报错,将num_workers设置为0即可
                                     drop_last=True)
  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: `torch.utils.data.DataLoader` 是 PyTorch 中用于加载数据的一个重要类。它可以自动地将数据集分成多个批次,并在训练时以迭代器的形式提供数据。 使用方法很简单,只需要将数据集和批次大小传入 `DataLoader` 的构造函数中即可,比如: ``` from torch.utils.data import DataLoader from torchvision import datasets, transforms # 加载 MNIST 数据集 mnist_train = datasets.MNIST('mnist', train=True, download=True, transform=transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ])) # 使用 DataLoader 加载数据 train_loader = DataLoader(mnist_train, batch_size=64, shuffle=True) # 迭代训练数据 for data, target in train_loader: # 训练网络 pass ``` 其中 train_loader 为一个迭代器,每次调用 next() 函数即可得到一个批次的数据 你可以使用`num_workers`参数来使用多进程读取数据,可以节省读取数据时间 当然DataLoader也支持并行计算 你可以使用 `torch.utils.data.DataLoader`来创建数据加载器,并可以通过迭代器的形式访问数据 总之,`torch.utils.data.DataLoader` 是 PyTorch 中极其方便的一个类,它可以很好地管理数据的加载和批次的生成。 ### 回答2: torch.utils.data.dataloader是PyTorch中的数据加载器,用于在训练或测试模型时加载数据。它提供了一个高效的数据加载方式,能够有效地减少数据准备的时间,并且能够在训练过程中进行数据增强和预处理。 dataloader的主要功能包括数据加载、数据处理、数据批处理和数据分布式处理。它能够从数据集中逐一读取数据并对其进行处理、组合和转换,同时支持对数据进行分批处理以避免内存溢出和加快计算速度。此外,dataloader还支持在多个进程之间并行加载数据以提高效率,适用于大型数据集和高效计算的场景。 在使用dataloader时,需要指定数据集、批量大小、是否乱序等参数,以及指定数据处理函数和数据转换函数。例如,可以使用transforms模块提供的函数对图像进行裁剪、缩放和旋转,以及转换为PyTorch中的张量。最后,可以使用for循环逐个迭代数据集,利用模型进行训练或测试,同时还可以进行数据增强、数据分布式处理等操作以提高训练效果和计算效率。 总之,torch.utils.data.dataloader是PyTorch中非常重要的数据加载器,在深度学习中的应用非常广泛。它能够高效地加载和处理数据集,并且能够在训练过程中进行数据增强和预处理,是提高深度学习效率和性能的重要工具之一。 ### 回答3: torch.utils.data.dataloader是PyTorch中一个用于将数据加载器实现为Python类的模块。该模块旨在帮助数据科学家和机器学习工程师更轻松地管理和加载数据集。 torch.utils.data.dataloader的主要作用是帮助用户批量读取和处理数据,并在训练模型、评估模型和使用模型进行预测时对其进行优化。在训练神经网络时,通常需要遍历整个数据集多次,并从中随机取出一部分数据进行训练。torch.utils.data.dataloader可以帮助用户在训练过程中自动进行这些操作。 使用torch.utils.data.dataloader有许多优点。首先,该模块提供了一个简单的接口来处理批量数据,减少了繁琐的数据加载过程。其次,它可以自动为数据加载器添加多线程和批量加载机制,从而加速了数据加载过程,提高了模型训练的效率。此外,该模块提供了一些选项来自定义数据加载器的行为,使用户能够根据自己的需求轻松地定制数据加载器。 在使用torch.utils.data.dataloader时,我们需要使用一个数据集类来对数据进行封装,并将其传递给数据加载器。例如,如果我们要加载一个图像分类数据集,我们需要创建一个数据集类来加载数据,并使用这个类来加载数据集。然后,我们可以使用torch.utils.data.dataloader来对数据进行批量处理。 在使用torch.utils.data.dataloader时,我们还需要设置一些参数来配置数据加载器的行为。这些参数包括批量大小、数据并行性、数据加载机制、是否需要打乱数据集等。例如,如果我们想要使用多线程来加载数据,我们可以设置num_workers参数来指定线程数。 总之,torch.utils.data.dataloader是一个非常有用的模块,它可以帮助用户更轻松地管理和加载数据集,并自动进行批量处理和多线程处理,从而提高了模型训练的效率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值