深度学习之Pytorch------DNN实现MNIST手写数字识别

目录

1.MNIST数据集介绍

2.Pytorch实现DNN

1.MNIST数据集介绍

        MNIST数据集在torvision.datasets里面,可以自行加载,其中训练集有6W张,测试集有1W张,都为灰度图,即channel为1,图片的大小都是28x28,下面我们通过代码测试以下。

1. 导入工具包

# 导入工具包
from PIL import Image
import numpy as np
import torchvision
from torch.utils.data import DataLoader

 2. 加载数据

train_data = torchvision.datasets.MNIST(
    root = './mnist',
    # train = True 为 训练集,6w张照片;train = False 为 测试集,1w张照片
    train = True,
    # download 在第一次加载数据集时需要指定为 True,后面就不需要了,即从./mnist 目录中加载
    # download = True
) # 通过此句,现 6W 中张照片均在 train_data 中,每一张照片都是 28 * 28 大小 

# 构建可迭代的数据装载器,这里我们设置的 batch_size = 1,即一次循环,读取一张图片
train_loader = DataLoader(dataset=train_data, batch_size=1, shuffle=True)

3. 图片显示函数

def img_show(img):
    pil = Image.fromarray(np.uint(img))
    pil.show()

4. 测试观察图片

for i, data in enumerate(train_data):
    # 这里我们只读取1张照片,看下效果就行 
    if i == 1:
        break
    """
    data 是一个元组,你可以简单理解为它的0下标处存放的是batch_size张图片;
    1下标处存放的是batch_size张图片分别对应的数字
    """
    x, y = data
    img_show(x)

简单看下效果,train_data的第一张图片就是 5

2.Pytorch实现DNN

1. 导入工具包

import torch
import numpy as np
import torchvision
import torch.nn as nn
from torch.utils.data import DataLoader

2. 超参数设置

# 分批次训练,一批 64 个
BATCH_SIZE = 64
# 所有样本训练 3 次
EPOCHS = 3
# 学习率设置为 0.0006
LEARN_RATE = 6e-4

# 若当前 Pytorch 版本以及电脑支持GPU,则使用 GPU 训练,否则使用 CPU
device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')

3. 读取数据集

# 训练集数据加载
train_data = torchvision.datasets.MNIST(
    root='./mnist',
    train=True,
    """
    将下载的文件转换成pytorch认识的tensor类型,且将图片的数值大小从(0-255)归一化到(0-1)
    经过此步,现在每一张照片大小为 (1, 28, 28),1是通道数,灰度照片,通道数为 1
    并且每张照片的灰度值都由 (0 - 255)归一化到 (0 - 1)
    """
    transform=torchvision.transforms.ToTensor()  
)
# 构建训练集的数据装载器,一次迭代有 BATCH_SIZE 张图片
train_loader = DataLoader(dataset=train_data, batch_size=BATCH_SIZE, shuffle=True)

# 测试集数据加载
test_data = torchvision.datasets.MNIST(
    root='./mnist',
    train=False,
    transform=torchvision.transforms.ToTensor()  
)
# 构建测试集的数据加载器,一次迭代 1 张图片,我们一张一张的测试
test_loader = DataLoader(dataset=test_data, batch_size=1, shuffle = True)

4. 定义DNN神经网络

"""
此处我们定义了一个 3 层的网络
隐藏层 1:40 个神经元
隐藏层 2:20 个神经元
输出层:10 个神经元
"""
class DNN(nn.Module):
    def __init__(self):
        super(DNN, self).__init__()
        # 隐藏层 1,使用 sigmoid 激活函数
        self.layer1 = nn.Sequential(
            nn.Linear(784, 40),
            nn.Sigmoid()
        )
        # 隐藏层 2,使用 sigmoid 激活函数
        self.layer2 = nn.Sequential(
            nn.Linear(40, 20),
            nn.Sigmoid()
        )
        # 输出层
        self.layer_out = nn.Linear(20, 10)

    def forward(self, x):
        x = self.layer1(x)
        x = self.layer2(x)
        self.out = self.layer_out(x)
        return self.out

5. 实例化model,并且定义优化器以及损失函数

# 实例化DNN,并将模型放在 GPU 训练
model = DNN().to(device)
# 同样,将损失函数放在 GPU
loss_fn = nn.MSELoss(reduction='mean').to(device)
#大数据常用Adam优化器,参数需要model的参数,以及学习率
optimizer = torch.optim.Adam(model.parameters(), lr=LEARN_RATE)

6. 训练模型

for epoch in range(EPOCHS):
    # 加载训练数据
    for step, data in enumerate(train_loader):
        x, y = data
        """
        因为此时的训练集即 x 大小为 (BATCH_SIZE, 1, 28, 28)
        因此这里需要一个形状转换为(BATCH_SIZE, 784);

        y 中代表的是每张照片对应的数字,而我们输出的是 10 个神经元,
        即代表每个数字的概率
        因此这里将 y 也转换为该数字对应的 one-hot形式来表示
        """
        x = x.view(x.size(0), 784)
        yy = np.zeros((x.size(0), 10))
        for j in range(x.size(0)):
            yy[j][y[j].item()] = 1
        yy = torch.from_numpy(yy)
        yy = yy.float()
        x, yy = x.to(device), yy.to(device)

        # 调用模型预测
        output = model(x).to(device)  
        # 计算损失值
        loss = loss_fn(output, yy)  
        # 输出看一下损失变化
        print(f'EPOCH({epoch})   loss = {loss.item()}')
        # 每一次循环之前,将梯度清零
        optimizer.zero_grad() 
        # 反向传播
        loss.backward()  
        # 梯度下降,更新参数
        optimizer.step()  

 下面是运行结果

7. 开始测试吧

sum = 0
# test:
for i, data in enumerate(test_loader):

    x, y = data
    # 这里 仅对 x 进行处理
    x = x.view(x.size(0), 784)
    x, y = x.to(device), y.to(device)
    res = model(x).to(device)
    # 得到 模型预测值
    r = torch.argmax(res)
    # 标签,即真实值
    l = y.item()
    sum += 1 if r == l else 0
    print(f'test({i})     DNN:{r} -- label:{l}')

print('accuracy:', sum / 10000)

下面是运行结果,正确率也一般般,92左右,这里就是去更多的调试参数了,网络层数,神经元个数,学习率等 ^o^

 附上完整代码

import torch
import numpy as np
import torchvision
import torch.nn as nn
from torch.utils.data import DataLoader

# 分批次训练,一批 64 个
BATCH_SIZE = 64
# 所有样本训练 3 次
EPOCHS = 3
# 学习率设置为 0.0006
LEARN_RATE = 6e-4

# 若当前 Pytorch 版本以及电脑支持GPU,则使用 GPU 训练,否则使用 CPU
device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')

# 训练集数据加载
train_data = torchvision.datasets.MNIST(
    root='./mnist',
    train=True,
    transform=torchvision.transforms.ToTensor()
)
# 构建训练集的数据装载器,一次迭代有 BATCH_SIZE 张图片
train_loader = DataLoader(dataset=train_data, batch_size=BATCH_SIZE, shuffle=True)

# 测试集数据加载
test_data = torchvision.datasets.MNIST(
    root='./mnist',
    train=False,
    transform=torchvision.transforms.ToTensor()
)
# 构建测试集的数据加载器,一次迭代 1 张图片,我们一张一张的测试
test_loader = DataLoader(dataset=test_data, batch_size=1, shuffle = True)

"""
此处我们定义了一个 3 层的网络
隐藏层 1:40 个神经元
隐藏层 2:20 个神经元
输出层:10 个神经元
"""
class DNN(nn.Module):
    def __init__(self):
        super(DNN, self).__init__()
        # 隐藏层 1,使用 sigmoid 激活函数
        self.layer1 = nn.Sequential(
            nn.Linear(784, 40),
            nn.Sigmoid()
		)
        # 隐藏层 2,使用 sigmoid 激活函数
        self.layer2 = nn.Sequential(
            nn.Linear(40, 20),
            nn.Sigmoid()
        )
        # 输出层
        self.layer_out = nn.Linear(20, 10)

    def forward(self, x):
        x = self.layer1(x)
        x = self.layer2(x)
        self.out = self.layer_out(x)
        return self.out

# 实例化DNN,并将模型放在 GPU 训练
model = DNN().to(device)
# 同样,将损失函数放在 GPU
loss_fn = nn.MSELoss(reduction='mean').to(device)
#大数据常用Adam优化器,参数需要model的参数,以及学习率
optimizer = torch.optim.Adam(model.parameters(), lr=LEARN_RATE)

for epoch in range(EPOCHS):
    # 加载训练数据
    for step, data in enumerate(train_loader):
        x, y = data
        """
        因为此时的训练集即 x 大小为 (BATCH_SIZE, 1, 28, 28)
        因此这里需要一个形状转换为(BATCH_SIZE, 784);
		
        y 中代表的是每张照片对应的数字,而我们输出的是 10 个神经元,
        即代表每个数字的概率
        因此这里将 y 也转换为该数字对应的 one-hot形式来表示
        """
        x = x.view(x.size(0), 784)
        yy = np.zeros((x.size(0), 10))
        for j in range(x.size(0)):
            yy[j][y[j].item()] = 1
        yy = torch.from_numpy(yy)
        yy = yy.float()
        x, yy = x.to(device), yy.to(device)

        # 调用模型预测
        output = model(x).to(device)
        # 计算损失值
        loss = loss_fn(output, yy)
        # 输出看一下损失变化
        print(f'EPOCH({epoch})   loss = {loss.item()}')
        # 每一次循环之前,将梯度清零
        optimizer.zero_grad()
        # 反向传播
        loss.backward()
        # 梯度下降,更新参数
        optimizer.step()

sum = 0
# test:
for i, data in enumerate(test_loader):
    
    x, y = data
    # 这里 仅对 x 进行处理
    x = x.view(x.size(0), 784)
    x, y = x.to(device), y.to(device)
    res = model(x).to(device)
    # 得到 模型预测值
    r = torch.argmax(res)
    # 标签,即真实值
    l = y.item()
    sum += 1 if r == l else 0
    print(f'test({i})     DNN:{r} -- label:{l}')

print('accuracy:', sum / 10000)

  • 5
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
PyTorch-MNIST-MLP是一个使用PyTorch库和多层感知器(MLP)来训练和测试MNIST手写数字数据集的项目。 MNIST是一个经典的手写数字识别数据集,包含了大量的手写数字图片和对应的标签。通过训练一个模型,我们可以实现自动识别手写数字的功能。 MLP是一种基本的人工神经网络模型,包含了多个全连接的神经网络层,并且每个神经元都与相邻层的所有神经元连接。通过多层的非线性变换和权重调整,MLP可以处理复杂的分类和回归任务。 PyTorch是一个开源的机器学习框架,提供了丰富的工具和函数来简化神经网络模型的构建和训练过程。通过PyTorch,我们可以轻松地搭建和训练MLP模型,并在MNIST数据集上进行实验。 在PyTorch-MNIST-MLP项目中,我们首先加载MNIST数据集,并将其转换成适合MLP模型的格式。然后,我们定义MLP模型的结构,包括输入层、隐藏层和输出层,并使用PyTorch提供的函数来定义损失函数和优化器。 接下来,我们使用训练数据集对MLP模型进行训练,通过反向传播算法和优化器来逐步调整模型的权重和偏置。在训练过程中,我们可以监控模型的精确度和损失值,以评估模型的性能。 最后,我们使用测试数据集对训练好的模型进行测试,并计算模型在测试集上的准确率。通过比较预测结果和真实标签,我们可以评估模型在手写数字识别任务上的表现。 总之,PyTorch-MNIST-MLP是一个基于PyTorch库和MLP模型的项目,用于训练和测试MNIST手写数字数据集。通过该项目,我们可以学习和掌握使用PyTorch构建神经网络模型的基本方法,并实现手写数字识别的功能。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值