Dataloader加载数据集

回顾

上节课使用全部数据进行训练。
在这里插入图片描述
在这里插入图片描述

Epoch, Batch-Size, Iterations

  • epoch:训练的总轮次,指所有的训练样本都进行一次训练。
  • batch-size:在一次训练中的训练样本数目。
  • iteration:1个epoch需要进行的训练次数。
  • epoch=batch-size*iteration
    在这里插入图片描述
  • shuffle:打乱数据
  • 先对数据进行乱序,然后进行分组为可迭代的loader,每一次迭代就是一个batch。
    在这里插入图片描述

糖尿病 Dataset 构建

  • 需要导入Dataset、DataLoader两个类,Dataset是个抽象类不能实例化,只能被继承。
  • 定义了一个数据集继承Dataset类,需要重写__init__、getitem、__len__三个魔法函数,分布是进行初始化,获取索引、获取列表长度的作用。
  • 加载数据集需要用到DataLoader,number workers是指加载数据集时是否使用多线程(1是单线程)
  • 另外,如果数据量比较小我们可以直接加载数据到内存;但是如果数据量比较大,比如说数据是图片,那么我们会新建一个txt文档保存数据集的路径、文件名、标签等信息。dataloader从txt文本中加载数据(YOLO系列)。
    在这里插入图片描述
    注意!!!由于windows系统和Linux系统的差异,直接使用num_workers相关设置会报错,RuntimeError: An attempt has been made to start a new process before the current process has finished its bootstrapping phase.最好加一个if语句:if __name__ == '__main__':
    在这里插入图片描述

数据集实现代码

# prepare dataset
class DiabetesDataset(Dataset):
    def __init__(self, filepath):
        xy = np.loadtxt(filepath, delimiter=',', dtype=np.float32)#导入数据集
        self.len = xy.shape[0]  # shape(行,列)shape[0]:获取行数
        self.x_data = torch.from_numpy(xy[:, :-1])#获取前8列数据x
        self.y_data = torch.from_numpy(xy[:, [-1]])#获取最后一列数据y

    def __getitem__(self, index):
        return self.x_data[index], self.y_data[index]#返回索引

    def __len__(self):
        return self.len#返回数据长度


dataset = DiabetesDataset('diabetes.csv')#读取数据
#加载数据
train_loader = DataLoader(dataset=dataset, batch_size=32, shuffle=True, num_workers=4)  # num_workers 多线程

DataLoader使用

if __name__ == '__main__':
    for epoch in range(100):
        for i, data in enumerate(train_loader, 0):  # train_loader 是先shuffle后mini_batch
            inputs, labels = data
            #每次获取一个(x[i],y[i]),然后拼接成一个矩阵X,Y,DataLoader会自动把数据转化为Tensor
            y_pred = model(inputs)
            loss = criterion(y_pred, labels)
            print(epoch, i, loss.item())

            optimizer.zero_grad()
            loss.backward()

            optimizer.step()

糖尿病分类预测代码

同样是四步走:
在这里插入图片描述
请先尝试自己写!(其实就是第一步、第四步有所改动)

import torch
import numpy as np
from torch.utils.data import Dataset
from torch.utils.data import DataLoader

# prepare dataset

class DiabetesDataset(Dataset):
    def __init__(self, filepath):
        xy = np.loadtxt(filepath, delimiter=',', dtype=np.float32)#导入数据集
        self.len = xy.shape[0]  # shape(行,列)shape[0]:获取行数
        self.x_data = torch.from_numpy(xy[:, :-1])#获取前8列数据x
        self.y_data = torch.from_numpy(xy[:, [-1]])#获取最后一列数据y

    def __getitem__(self, index):
        return self.x_data[index], self.y_data[index]#返回索引

    def __len__(self):
        return self.len#返回数据长度

dataset = DiabetesDataset('diabetes.csv')#读取数据
#加载数据
train_loader = DataLoader(dataset=dataset, batch_size=32, shuffle=True, num_workers=4)  # num_workers 多线程

# design model using class
class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.linear1 = torch.nn.Linear(8, 6)
        self.linear2 = torch.nn.Linear(6, 4)
        self.linear3 = torch.nn.Linear(4, 1)
        self.sigmoid = torch.nn.Sigmoid()

    def forward(self, x):
        x = self.sigmoid(self.linear1(x))
        x = self.sigmoid(self.linear2(x))
        x = self.sigmoid(self.linear3(x))
        return x
model = Model()

# construct loss and optimizer
criterion = torch.nn.BCELoss(reduction='mean')
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

# training cycle forward, backward, update
if __name__ == '__main__':
    for epoch in range(100):
        for i, data in enumerate(train_loader, 0):  # train_loader 是先shuffle后mini_batch
            inputs, labels = data
            #每次获取一个(x[i],y[i]),然后拼接成一个矩阵X,Y,DataLoader会自动把数据转化为Tensor
            y_pred = model(inputs)
            loss = criterion(y_pred, labels)
            print(epoch, i, loss.item())

            optimizer.zero_grad()
            loss.backward()

            optimizer.step()

torchvision.datasets

torchvision.datasets提供了许多数据集。
在这里插入图片描述

练习

请使用MNIST数据集构建一个线性模型分类器
MNIST数据集的使用

  • 加载数据集时,transform=transforms.ToTensor():将数据转化为Tensor。
  • download=True:路径没有数据集时会自动下载。
  • 训练时,DataLoader:shuffle=True:乱序;测试时不需要设置。
  • inputs,target:读取数据集中的X、Y。
    在这里插入图片描述

练习

kaggle是一个数据竞赛网站,提供了很多数据集和解决方案,可以在上面提交代码。

  • 泰坦尼克号数据集地址:https://www.kaggle.com/c/titanic/data
  • 请使用DataKLoader构建一个泰坦尼克号分类器。
  • 训练目标:乘客是否存活(Survived 为y,其余特征列可以有所选择作为x)
  • 做好了可以在网站上提交结果,查看评分。
    在这里插入图片描述
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值