(入门) 深度学习之“Hello World“——MINST数据集手写数字识别

MINST数据集手写数字识别

学习课程:
吴恩达深度学习课程Deeplearning.ai
刘二大人PyTorch深度学习实践

1.导入模块

import torch
from torchvision import transforms
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F
import torch.optim as optim

2.加载数据集

transform = transforms.Compose([
    transforms.ToTensor(),  # 将其转换为tensor类型
    transforms.Normalize((0.1307,), (0.3081,))  # 将其压缩至0-1之间
])

# 加载数据准备
train_dataset = datasets.MNIST(root='../dataset/minst', train=True, transform=transform, download=True);

test_dataset = datasets.MNIST(root='../dataset/minst', train=False, transform=transform, download=True);

train_loader = DataLoader(dataset=train_dataset, batch_size=64, shuffle=True);

test_loader = DataLoader(dataset=train_dataset, batch_size=64, shuffle=False);

3.构建网络

# 构建网络
class Net(torch.nn.Module):
    def __init__(self):
        super(Net, self).__init__();
        self.l1 = torch.nn.Linear(784, 512);
        self.l2 = torch.nn.Linear(512, 256);
        self.l3 = torch.nn.Linear(256, 128);
        self.l4 = torch.nn.Linear(128, 64);
        # 输出层
        self.l5 = torch.nn.Linear(64, 10);
    def forward(self, x):
        x = x.view(-1, 784);
        x = F.relu(self.l1(x));
        x = F.relu(self.l2(x));
        x = F.relu(self.l3(x));
        x = F.relu(self.l4(x));
        return self.l5(x);

4.损失函数、梯度下降

# 实例化网络
model = Net();

# 损失函数及其优化
# ‘多分类’交叉熵损失函数   CrossEntropyLoss() = softmax + log + NLLLoss() = log_softmax + NLLLoss()
loss1 = torch.nn.CrossEntropyLoss(); 

# 梯度下降
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5);

5.训练模型

# 训练模型
def train(epoch):
    loss_running = 0.0;
    # enumerate返回值有两个,一个是序号,一个是数据(包含训练数据和标签)
    for batch_index, data in enumerate(train_loader, 0):
        batch_x, batch_y = data;
        optimizer.zero_grad();
        # 损失函数 前馈 反馈
        output = model(batch_x);  # output 就是y-hat
        loss = loss1(output, batch_y);
        loss.backward();
        optimizer.step();

        loss_running += loss.item();
        if batch_index % 300 == 299:
            print('[%d, %5d] loss: %.3f' % (epoch + 1, batch_index + 1, loss_running / 300))
            loss_running = 0.0

6.测试模型

def test():
    correct = 0;
    total = 0;
    with torch.no_grad():
        for data in test_loader:
            t_images, t_labels = data;
            t_output = model(t_images);
            _, predicted = torch.max(t_output, dim=1);
            total += t_labels.size(0);
            correct += (predicted == t_labels).sum().item();
        print('Accuracy on test set: %d %%' % (100 * correct / total));

7.执行

if __name__ == '__main__':
    for epoch in range(10):
        train(epoch);
        test();

8.保存模型

Path = "MINST_MY_Model.pt";

torch.save(model,Path);
saveModel = torch.load(Path);
saveModel.eval();
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
深度学习是一种人工智能技术,可以通过训练大规模数据来学习和识别模式。在深度学习中,前馈神经网络(Feedforward Neural Network)是最常用的模型之一,它由多个神经元层组成,每个神经元接收上一层的输出作为输入,并通过激活函数将输出传递给下一层。 MNIST是一个常用的手写数字识别数据集,其中包含了60000个用于训练的样本和10000个用于测试的样本。每个样本都是28x28像素的灰度图像,表示了0-9之间的手写数字。 在使用深度学习识别MNIST手写数据集时,我们可以使用PyTorch这样的深度学习框架进行实现。首先,我们需要导入相关的库和模块,并加载数据集。然后,我们可以定义一个前馈神经网络模型,该模型包含若干隐藏层和输出层。每个隐藏层可以使用不同的激活函数,如ReLU或Sigmoid,以增强模型的非线性能力。 接下来,我们可以定义损失函数和优化器,用于评估模型的性能并更新模型的参数。常用的损失函数有交叉熵损失函数,而常用的优化器有梯度下降法和Adam优化器。 接下来,我们可以进行模型的训练。训练过程中,我们使用训练集进行前向传播和反向传播,根据损失函数计算损失,并通过优化器调整模型参数。经过反复的迭代训练,模型可以逐渐提高准确率。 最后,我们可以使用测试集对训练好的模型进行评估。通过将测试集输入到模型中,并将输出与实际标签进行比较,我们可以计算出模型的准确率。如果在测试集上的准确率较高,那么我们可以认为这个模型在MNIST手写数据集上的识别效果较好。 总之,通过使用前馈神经网络模型和深度学习框架如PyTorch,我们可以对MNIST手写数据集进行准确的识别。这个过程包括数据加载、模型定义、损失函数与优化器的选择、模型的训练和模型的评估。通过不断地优化和调整模型,我们可以达到更高的识别准确率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

孔表表uuu

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值