pytorch 构建自己的数据集,用来训练


1. 第一种方法(调用Dataset类,直接加载所有的数据):使用Pytorch的Dataset类来构建数据集,再使用Data.DataLoader()来加载数据集

使用到Pytorch中的:TORCH.UTILS.DATA.DATASET

1. 通过继承Dataset类来构建数据集

from torch.utils.data import Dataset

# TORCH.UTILS.DATA.DATASET
# 1. 图片的路径和标签信息存储在一个txt中
# 2. 将这些信息转化为list,该list每一个元素对应一个样本
# 3. 通过getitem函数,读取数据和标签,并返回数据和标签
class myData(Dataset):  # from torch.utils.data import Dataset
    def __init__(self):
        initDataDir = "initData"  # 保存所有数据的路径
        self.all_data = []  # 存放所有的数据
        files = os.listdir(initDataDir)
        for file in files:
            df = pd.read_excel(os.path.join(initDataDir, file))
            col_names = df.columns.values.tolist()  # 获取列的名字
            for i in range(0, len(df)):  # 遍历每一行的数据
                self.all_data.append([df.iloc[i][col_names[0]], df.iloc[i][col_names[1]]])  # 将一个样本和label为一组存放进去
                # torch.tensor(self.all_data)

    def __getitem__(self, index):
        """
        # 已知样本index,返回样本的值(样本和样本label)。
        # 通常是根据读取一个存放了 样本路径和标签信息的txt文档获得具体的数据。
        :param index: 样本的index
        :return: 样本,label
        """
        return self.all_data[index][0], self.all_data[index][1]

    def __len__(self):  # 返回所有样本的数目
        return len(self.all_data)

2. 先实例化,再使用Data.DataLoader()来加载数据集

#  使用标准类来构造数据 加载数据
myDataSet = myData()  # 实例化自己构建的数据集
train_loader = Data.DataLoader(dataset=myDataSet, batch_size=BATCH_SIZE, shuffle=False)

2. 第二种方法(现将数据集分开,再加载其中的训练数据):先使用Data.TensorDataset(X_train, y_train)构造数据集,再使用Data.DataLoader()来加载数据集

1. 读取所有的数据集

class allData():  # from torch.utils.data import Dataset
    def __init__(self):
        self.all_data = []  # 存放所有的数据
        self.all_data_x = []  # 存放所有的数据
        self.all_data_y = []  # 存放所有的数据

        initDataDir = "initData"  # 保存所有数据的路
        files = os.listdir(initDataDir)
        for file in files:
            df = pd.read_excel(os.path.join(initDataDir, file))
            col_names = df.columns.values.tolist()  # 获取列的名字

            for i in range(0, len(df)):  # 遍历每一行的数据
                self.all_data_x.append(df.iloc[i][col_names[1]])
                self.all_data_y.append(df.iloc[i][col_names[2]])
                # torch.tensor(self.all_data)

    def getX(self):
        # return self.all_data_x
        return torch.unsqueeze(torch.Tensor(self.all_data_x), dim=1)

    def getY(self):
        # return self.all_data_y
        return torch.unsqueeze(torch.Tensor(self.all_data_y), dim=1)

2. 使用train_test_split()将数据集拆分成训练和测试数据集

import torch
import torch.utils.data as Data
import matplotlib.pyplot as plt

from sklearn.model_selection import train_test_split

X_train, X_test, y_train, y_test = train_test_split(X.numpy(), y.numpy(), test_size=0.8)  # split输入的数据集必须转换成numpy类型(只能处理numpy类型的数据)
X_train = torch.from_numpy(X_train)  # numpy 转成 torch 类型
X_test = torch.from_numpy(X_test)
y_train = torch.from_numpy(y_train)
y_test = torch.from_numpy(y_test)

3. 先使用Data.TensorDataset(X_train, y_train) 封装起来,再使用Data.DataLoader()调用。

torch_dataset = Data.TensorDataset(X_train, y_train)  # 训练的数据集
train_loader = Data.DataLoader(dataset=torch_dataset, batch_size=BATCH_SIZE, shuffle=False)

3. 最后,如何使用处理好的train_loader数据集

 for step, (b_x, b_y) in enumerate(train_loader):

数据集会按照 Data.DataLoader() 一个BATCH_SIZE一组的加载完所有的数据集。
step 是 0 1 2 ……编号一样的东西(通常不使用)
b_x 是数据
b_y 是对应的标签

2019年4月21日21:56:12
END

### 回答1: PyTorch是一个开源的机器学习库,内置丰富的函数和工具包用于数据集加载、数据预处理、模型构建训练和评估。数据集是机器学习模型的重要组成部分,PyTorch提供了多种方法用于加载数据集,包括内置的函数和可定制的方法,让用户可以根据自己的需求和数据集特性来选择适合的方式。 内置函数 PyTorch提供了内置的函数用于加载常见的数据集,如MNIST、CIFAR-10、ImageNet等。这些函数通常包括下载数据集、转换为Tensor格式、划分为训练集和测试集等步骤,使用简单方便,适合快速上手使用。 可定制方法 如果内置函数不能满足需求,PyTorch也提供了许多可定制的方法。最常用的是Dataset和DataLoader类。Dataset类是抽象类,用户需要继承这个类并实现getitem和len方法来定义自己的数据集DataLoader类用于生成一个迭代器,用户可以设置批量大小、并行加载、随机采样等参数。 除此之外,PyTorch还提供了其它一些用于数据集处理的工具,如transforms模块、Sampler类、collate_fn函数等,可以用于数据增强、数据集分块和数据集拼接等场景。 总结 PyTorch提供了内置函数和可定制方法用于加载数据集,用户可以根据自己的需求和数据集特性来选择适合的方式。使用内置函数可以快速上手,使用可定制方法可以更加灵活和高效。对于多样化的数据集PyTorch还提供了多个处理工具,可以用于数据增强、数据集分块和数据集拼接等场景。 ### 回答2: PyTorch是一种基于Python的开源机器学习库,它可以用于构建各种机器学习模型。在PyTorch中,数据集加载是一个非常重要的部分,因为机器学习模型需要大量的数据来进行训练。 在PyTorch中,数据集加载可以通过DataLoader类来实现。DataLoader是一个Python迭代器,它可以加载大量的数据集,并将其分成小批量进行训练。这样可以避免一次性将整个数据集加载到内存中,从而节省内存空间。 首先,我们需要将数据集加载到内存或磁盘中,并将其转换为PyTorch数据集类的对象。PyTorch提供了两种数据集类:Dataset和IterableDataset。其中,Dataset类是一种基于索引的数据集类,它可以通过索引来访问数据集中的每个数据样本;而IterableDataset是一种基于迭代器的数据集类,它可以像Python中的迭代器一样使用。 然后,我们可以使用DataLoader类来加载数据集DataLoader类有很多参数,包括batch_size(表示每个小批量包含的样本数)、shuffle(表示是否随机打乱数据集顺序)、num_workers(表示使用多少个工作线程来加载数据集)等。 在使用DataLoader类加载数据集时,我们可以通过for循环来迭代数据集中的每个小批量,并将其传递给机器学习模型进行训练。 总之,PyTorch数据集加载是非常灵活和易于使用的。通过使用DataLoader类和PyTorch提供的数据集类,我们可以轻松地加载和处理大量的数据集,并将其用于训练各种机器学习模型。 ### 回答3: Pytorch是一个使用Python作为开发语言的深度学习框架,提供了非常强大的数据加载和预处理工具。在Pytorch中,数据集加载主要通过两个类来实现,分别是Dataset和DataLoaderDataset类负责加载和处理数据集,而DataLoader类则负责将处理后的数据安装指定的batch_size分批加载到内存中,避免了内存不足的问题。 Dataset类是一个抽象类,需要根据具体的数据集来实现其中的方法。一般而言,Dataset类中需要实现__len__()方法和__getitem__()方法,分别用来获取数据集的长度和获取具体的数据样本。 DataLoader类则负责对数据集进行batch处理,这样可以充分利用系统的存储和计算资源,提高了模型的训练速度。在使用DataLoader时,需要指定batch_size、shuffle和num_workers等参数,其中num_workers可以指定使用多少个进程来装载数据,从而进一步提高了数据装载的效率。 在数据集加载过程中,可以使用Pytorch提供的transforms模块来进行数据的预处理,如改变图像尺寸、随机翻转、归一化等操作,从而增加模型的泛化能力和准确性。 总之,Pytorch数据集加载和预处理方面提供了非常强大的工具,只需要实现一些简单的代码,就能轻松地完成数据的加载和预处理,从而为模型的训练和测试提供了坚实的基础。
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值