PyTorch使用Dataset和DataLoader加载数据集

在深度学习中训练模型都是小批量小批量地优化训练的,即每次都会从原数据集中取出一小批量进行训练,完成一次权重更新后,再从原数据集中取下一个小批量数据,然后再训练再更新。比如最常用的小批量随机梯度下降(Mini-Batch Gradient Descent,MBGD)。

毕竟原数据集往往很大,不可能一次性的全部载入模型,只能一小批一小批地载入。训练完了就扔了,再加载下一小批。

在PyTorch的torch.utils.data包中定义了两个类DatasetDataLoader,这两个类就是用来批量地加载数据的。

下面说一下其用法:

1、准备数据

在使用Dataset和DataLoader之前需要先准备好数据,这里随即构造了一段数据:

# 自己编造一个数据集
import pandas as pd
import numpy as np

data = np.random.rand(128,3)
data = pd.DataFrame(data, columns=['feature_1', 'feature_2', 'label'])

数据形式如下:
在这里插入图片描述
或者,如果你有数据,可以这样读取:

data = pd.read_csv('data/diabetes.csv')  # 'data/diabetes.csv' 是我的数据的路径

数据形式如下:

在这里插入图片描述

2、写一个简单的数据加载器

import numpy as np
import pandas as pd
import torch 
# utils是工具包
from torch.utils.data import Dataset  # Dataset是个抽象类,只能用于继承
from torch.utils.data import DataLoader # DataLoader需实例化,用于加载数据


class MyDataset(Dataset):   # 继承Dataset类
    def __init__(self, df): 
        # 把数据和标签拿出来
        self.x_data = df[['feature_1', 'feature_2']].values
        self.y_data = df[['label']].values

        # 数据集的长度
        self.length = len(self.y_data)
        
    # 下面两个魔术方法比较好写,直接照着这个格式写就行了 
    def __getitem__(self, index): # 参数index必写
        return self.x_data[index], self.y_data[index]
    
    def __len__(self): 
        return self.length # 只需返回数据集的长度即可

# 实例化
my_dataset = MyDataset(data) 
train_loader = DataLoader(dataset=my_dataset, # 要传递的数据集
                          batch_size=32, #一个小批量数据的大小是多少
                          shuffle=True, # 数据集顺序是否要打乱,一般是要的。测试数据集一般没必要
                          num_workers=0) # 需要几个进程来一次性读取这个小批量数据,默认0,一般用0就够了,多了有时会出一些底层错误。

3、如何使用数据加载器来训练模型?

类似于迭代器的使用

for epoch in range(100): 
	
	# ---------------主要看这两行代码------------------
    for i, data in enumerate(train_loader): 
        # 1. 数据准备
        inputs, labels = data 
    # ---------------主要看这两行代码------------------
        
        # 2. 前向传播 
        y_pred = model(inputs) 
        loss = criterion(y_pred, labels)
        # 3. 反向传播
        loss.backward() 
        # 4. 权重/模型更新 
        optimizer.step()
        # 5. 梯度清零
        optimizer.zero_grad() 

总结模板

模板如下:

class MyDataset(Dataset): 
    def __init__(self): 
        '''
        有两种写法:
        1、将全部数据都加载进内存里,适用于少量数据(上面那个例子就是全部加载);
        2、当数据量或者标签量很大时,比如图片,就把这些数据或者标签放到文件或数据库里去,只需在此方法中初始化定义这些文件索引的列表即可。
        '''
        pass
    
    # 以下2个方法都是魔法方法
    def __getitem__(self, index): # 表示将来实例化这个对象后,它能支持下标(索引)操作,也就是能通过索引把里面的数据拿出来。
        pass
    def __len__(self):  # 返回数据集的长度
        pass
    
my_dataset = MyDataset() 
train_loader = DataLoader(dataset=my_dataset, # 传递数据集
                          batch_size=32, #一个小批量容量是多少
                          shuffle=True, # 数据集顺序是否要打乱,一般是要的。测试数据集一般没必要
                          num_workers=0) # 需要几个进程来一次性读取这个小批量数据

  • 17
    点赞
  • 39
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
好的,下面是使用PyTorch中的DatasetDataloader的示例程序: 首先,我们需要导入相关的库: ```python import torch from torch.utils.data import Dataset, DataLoader ``` 接下来我们定义一个数据集类,这个类需要继承自`torch.utils.data.Dataset`,并实现`__len__`和`__getitem__`方法。这里我们假设我们有一个包含10个样本的数据集,每个样本由一个图片和一个标签组成: ```python class MyDataset(Dataset): def __init__(self): self.data = [(torch.randn(3, 224, 224), i) for i in range(10)] def __len__(self): return len(self.data) def __getitem__(self, index): x, y = self.data[index] return x, y ``` 接下来,我们可以使用`MyDataset`类创建一个数据集对象,并使用`DataLoader`类创建一个数据加载器对象。在创建`DataLoader`对象时,我们需要指定`batch_size`和`shuffle`参数: ```python my_dataset = MyDataset() my_dataloader = DataLoader(my_dataset, batch_size=2, shuffle=True) ``` 现在我们可以使用`my_dataloader`迭代数据集中的样本了,每个迭代器返回一个包含`batch_size`个样本的元组,其中第一个元素是一个大小为`(batch_size, 3, 224, 224)`的张量,代表`batch_size`个图片,第二个元素是一个大小为`(batch_size,)`的张量,代表`batch_size`个标签。我们可以使用下面的代码来迭代数据集: ```python for x, y in my_dataloader: print(x.shape, y.shape) ``` 输出结果如下: ``` torch.Size([2, 3, 224, 224]) torch.Size([2]) torch.Size([2, 3, 224, 224]) torch.Size([2]) torch.Size([2, 3, 224, 224]) torch.Size([2]) torch.Size([2, 3, 224, 224]) torch.Size([2]) torch.Size([2, 3, 224, 224]) torch.Size([2]) ``` 这个程序演示了如何使用PyTorch中的DatasetDataloader加载数据集,并迭代数据集中的样本。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值