【Pytorch学习笔记】MNIST数据集的训练及简单应用(一)

零、简单介绍

pytorch是一个开源的深度学习的框架。其本质是一个基于Python的科学计算包,能提供最大的灵活性和效率。

MNIST数据集包含70,000张手写数字的图像及标签。其中 60,000张用于训练,10,000张用于测试。图像是灰度的,28x28像素,并且居中的,以减少预处理和加快运行。如下图所示:

CNN卷积神经网络,参见这个介绍。一个简单的卷积神经网络可包括卷积层,池化层,和全连接层。就是说,训练好之后,给这个网络输入一张手写数字的图片,经过这些个层之后,就可以输出这个数字。训练的过程就是不断根据训练集中的具体的图片及其对应的标签(即数字),来不断调整网络中的各参数以更新优化这个网络,使其能达到不错的准确率的过程。

OpenCV,功能强大的数字图像处理库,这个网上的介绍就太多了。

一、效果展示

 其中:右上角的窗口展示的是通过笔记本摄像头捕获的原图像右下角窗口展示的是预处理之后,即转换为灰度图,滤波,反向二值化之后的图像;左上角展示的是即将输入进模型中的图像;下方窗口输出的predicted number即是模型输出的预测结果,是不断刷新的。

二、功能实现

整体分为两个大的部分:1.训练模型;2.使用模型。

首先是训练模型:参照的这个教程

第一步:导入需要的包

import torch
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision import transforms
import torch.nn.functional as F
#import cv2
#import os
import matplotlib.pyplot as plt

其中torch用于实现深度学习,pyplot实现绘图以可视化训练结果

第二步:准备数据集(包括训练集和测试集)

batch_size = 64    #设置batch大小

transform = transforms.Compose([
    transforms.ToTensor(),                        #转换为张量
    transforms.Normalize((0.1307,), (0.3081,))    #设定标准化值
])

#训练集
train_dataset = datasets.MNIST(
    root='./data',
    train=True,
    transform=transform,
    download=True)

#测试集
test_dataset = datasets.MNIST(
    root='./data',
    train=False,
    transform=transform,
    download=True)

#训练集加载器
train_loader = DataLoader(dataset=train_dataset,
                          batch_size=batch_size,
                          shuffle=True)

#测试集加载器
test_loader = DataLoader(dataset=test_dataset,
                         batch_size=batch_size,
                         shuffle=False)

首先,设定batch大小(几句话搞懂什么是batch);定义transform操作。这个操作的目的是对原始图像进行预处理,主要是要将其转换为张量,才能送进神经网络中。

其次,定义训练集,测试集。这里dataset的目的是定义MNIST数据集,使用提供的detasets.MNIST()函数。里边需要指定路径,是否为训练集,transform操作(就是刚才定义好的),是否自动从网上下载等。

然后,定义训练集、测试集的加载器。类似一个集合(?),将训练集,测试集准备好放在里边。需要设定的参数有数据来源(即刚才的dataset),batch大小,是否需要打乱顺序等。

第三步:设计模型

# 设计模型   CNN
class CNN(torch.nn.Module):
    def __init__(self):
        super(CNN, self).__init__()
        self.conv1 = torch.nn.Conv2d(1, 10, kernel_size=(5,5))      #卷积层1
        self.conv2 = torch.nn.Conv2d(10, 20, kernel_size=(5,5))     #卷积层2
        self.pooling = torch.nn.MaxPool2d(2)                        #池化层
        self.fc1 = torch.nn.Linear(320, 256)                #全连接层1
        self.fc2 = torch.nn.Linear(256, 128)                #全连接层2
        self.fc3 = torch.nn.Linear(128, 10)                 #全连接层3

    def forward(self, x):
        batch_size = x.size(0)
        x = F.relu(self.pooling(self.conv1(x)))    #卷积层1->池化层->激活函数Relu
        x = F.relu(self.pooling(self.conv2(x)))    #卷积层2->池化层->激活函数Relu
        x = x.view(batch_size, -1)        #改变张量的维度
        x = self.fc1(x)            #全连接层1
        x = self.fc2(x)            #全连接层2
        x = self.fc3(x)            #全连接层3
        return x


model = CNN()    #实例化(?)模型为model

定义了2个卷积层和3个全连接层。

整体如上图所示,(其中池化层和激活函数的顺序交换了一下)

第四步:构造损失和优化函数


# 构造损失函数和优化函数
# 损失
criterion = torch.nn.CrossEntropyLoss()
# 优化
optimizer = torch.optim.SGD(model.parameters(), lr=0.1, momentum=0.5)

损失函数使用交叉熵损失,适用于多分类问题

优化函数使用随机梯度下降算法SGD,学习率设置为0.1

第五步:定义训练函数


def train(epoch):
    running_loss = 0.0        #每一轮训练重新记录损失值
    for batch_idx, data in enumerate(train_loader, 0):    #提取训练集中每一个样本
        inputs, target = data        
        optimizer.zero_grad()                #将梯度归零
        #print(inputs.shape)
        outputs = model(inputs)              #代入模型
        loss = criterion(outputs, target)    #计算损失值
        loss.backward()                      #反向传播计算得到每个参数的梯度值
        optimizer.step()                     #梯度下降参数更新

        running_loss += loss.item()          #损失值累加
        if batch_idx % 300 == 299:           #每300个样本输出一下结果
            print('[%d,%5d] loss: %.3f' % (epoch + 1, batch_idx + 1, running_loss / 300))
            running_loss = 0.0          # (训练轮次,  该轮的样本次,  平均损失值)
    return running_loss

第六步:定义测试函数


def test():
    correct = 0
    total = 0
    with torch.no_grad():            #执行计算,但不希望在反向传播中被记录
        for data in test_loader:     #提取测试集中每一个样本
            images, labels = data
            outputs = model(images)  #带入模型
            _, pred = torch.max(outputs.data, dim=1)    #获得结果中的最大值
            total += labels.size(0)                     #测试数++
            correct += (pred == labels).sum().item()    #将预测结果pred与标签labels对比,相同则正确数++
            """
            print("imageshape", images.shape)
            print("outputshape", outputs.shape)
            print("_ is", _.shape, _)
            print("pred is", pred.shape, pred)
            print("label is", labels)
            """
        print('%d %%' % (100 * correct / total))    #输出正确率

简单定义一下主函数

if __name__ == '__main__':
    lossy = []        #定义存放纵轴数据(损失值)的列表
    epochx = []       #定义存放横轴数据(训练轮数)的列表
    #path = "C:/Users/yas/Desktop/pytorch/MNIST/model/model1.pth"
    for epoch in range(10):    #训练10轮
        epochx.append(epoch)   #将本轮轮次存入epochy列表
        lossy.append(train(epoch))  #执行训练,将返回值loss存入lossy列表  
        test()                 #每轮训练完都测试一下正确率

    #torch.save(model, path)
    #model = torch.load("C:/Users/yas/Desktop/pytorch/MNIST/model/model1.pth")

    #可视化一下训练过程
    plt.plot(epochx, lossy)
    plt.grid()
    plt.show()
    

到这就可以开始进行训练了。

输出如图:

训练过程如图:

因为训练轮数太少,看不出有收敛的迹象

先写这么多

谢谢阅读!

下篇在这里

  • 9
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
好的,以下是使用PyTorch对Fashion MNIST数据集进行分类的示例代码: 首先,我们需要导入必要的库和模块: ```python import torch import torch.nn as nn import torch.optim as optim import torchvision.datasets as datasets import torchvision.transforms as transforms from torch.utils.data import DataLoader ``` 然后,我们需要下载并加载数据集。Fashion MNIST数据集可以通过以下方式下载: ```python train_data = datasets.FashionMNIST( root="data", train=True, download=True, transform=transforms.ToTensor() ) test_data = datasets.FashionMNIST( root="data", train=False, download=True, transform=transforms.ToTensor() ) ``` 接下来,我们需要定义一个神经网络模型。在这个例子中,我们使用了一个简单的卷积神经网络: ```python class CNN(nn.Module): def __init__(self): super(CNN, self).__init__() self.layer1 = nn.Sequential( nn.Conv2d(1, 32, kernel_size=3, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2) ) self.layer2 = nn.Sequential( nn.Conv2d(32, 64, kernel_size=3, padding=1), nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=2) ) self.fc = nn.Sequential( nn.Linear(7 * 7 * 64, 128), nn.ReLU(), nn.Linear(128, 10) ) def forward(self, x): out = self.layer1(x) out = self.layer2(out) out = out.reshape(out.size(0), -1) out = self.fc(out) return out ``` 然后,我们需要定义损失函数和优化器: ```python model = CNN() criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=0.001) ``` 最后,我们可以开始训练模型并评估其性能: ```python train_loader = DataLoader(train_data, batch_size=100, shuffle=True) test_loader = DataLoader(test_data, batch_size=100, shuffle=False) for epoch in range(10): for i, (images, labels) in enumerate(train_loader): optimizer.zero_grad() outputs = model(images) loss = criterion(outputs, labels) loss.backward() optimizer.step() if (i + 1) % 100 == 0: print(f"Epoch [{epoch + 1}/{10}], Step [{i + 1}/{len(train_loader)}], Loss: {loss.item():.4f}") with torch.no_grad(): correct = 0 total = 0 for images, labels in test_loader: outputs = model(images) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() accuracy = 100 * correct / total print(f"Test Accuracy: {accuracy:.2f}%") ``` 这就是使用PyTorch对Fashion MNIST数据集进行分类的示例代码。希望能对你有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值