pytorch(二)手写数字笔记

一、工具类 utils.py

#!/usr/bin/env python
# -*- coding:utf-8 -*-
'''
utils:画loss曲线,随机显示前六张图片,转换为one_hot编码
'''
import  torch
from    matplotlib import pyplot as plt


# 画出loss曲线变化图
def plot_curve(data):
    # fig创建一个画布
    fig = plt.figure()
    plt.plot(range(len(data)), data, color='blue')
    # 右上角标记
    plt.legend(['value'], loc='upper right')
    # x轴迭代次数
    plt.xlabel('step')
    # y轴损失值
    plt.ylabel('value')
    plt.show()


# 画出图
def plot_image(img, label, name):

    fig = plt.figure()
    for i in range(6):
        # 6个图像,以两行三列,索引为i+1
        plt.subplot(2, 3, i + 1)
        # tight_layout紧密排版
        plt.tight_layout()
        # 均值是0.1307,标准差是0.3081,灰度图
        plt.imshow(img[i][0]*0.3081+0.1307, cmap='gray', interpolation='none')
        # name:数据集名   label[i].item():数字
        plt.title("{}: {}".format(name, label[i].item()))
        # 把x、y轴坐标隐去
        plt.xticks([])
        plt.yticks([])
    plt.show()


def one_hot(label, depth=10):
    out = torch.zeros(label.size(0), depth)
    idx = torch.LongTensor(label).view(-1, 1)
    out.scatter_(dim=1, index=idx, value=1)
    return out

二、模型训练 mnist_train.py

'''
PyTorch由4个主要包装组成:
1.Torch:类似于Numpy的通用数组库,可以在将张量类型转换为(torch.cuda.TensorFloat)并在GPU上进行计算。
2.torch.autograd:用于构建计算图形并自动获取渐变的包
3.torch.nn:具有共同层和成本函数的神经网络库
4.torch.optim:具有通用优化算法(如SGD,Adam等)的优化包

'''
import  torch
from    torch import nn    #完成神经网络的构建包
from    torch.nn import functional as F  #包含常用的函数包
from    torch import optim     #优化工具包

import  torchvision    #视觉工具包
from   matplotlib import pyplot as plt  #画图工具

from  L5.utils import plot_image, plot_curve, one_hot



batch_size = 512

# step1.
# load dataset 读取数据集
# mnist_data':加载mnist数据集,路径
# train=True:选择训练集还是测试
# download=True:如果当前文件没有mnist文件就会自动从网上去下载
# torchvision.transforms.ToTensor():下载好的数据一般是numpy格式,转换成Tensor
# torchvision.transforms.Normalisze((0.1307,), (0.3081,)):正则化过程,为了让数据更好的在0的附近均匀的分布
# 上面一行可注释掉:但是性能会差到百分之70,加上是百分之80,更加方便神经网络去优化

train_loader = torch.utils.data.DataLoader(
    torchvision.datasets.MNIST('mnist_data', train=True, download=True,
                               transform=torchvision.transforms.Compose([
                                   torchvision.transforms.ToTensor(),
                                   torchvision.transforms.Normalize(
                                       (0.1307,), (0.3081,))
                               ])),# 均值是0.1307,标准差是0.3081,
    # 这些系数都是数据集提供方计算好的数据
    batch_size=batch_size, shuffle=True)
    # batch_size=batch_size:表示一次加载多少张图片
    # shuffle = True 加载的时候做一个随机的打散
test_loader = torch.utils.data.DataLoader(
    torchvision.datasets.MNIST('mnist_data/', train=False, download=True,
                               transform=torchvision.transforms.Compose([
                                   torchvision.transforms.ToTensor(),
                                   torchvision.transforms.Normalize(
                                       (0.1307,), (0.3081,))
                               ])),
    batch_size=batch_size, shuffle=False)

x, y = next(iter(train_loader))
print(x.shape, y.shape, x.min(), x.max())
# x=>torch.Size([512, 1, 28, 28])代表512张1通道28*28的灰度图
# y=>torch.Size([512])代表512张图片类别
plot_image(x, y, 'image sample')


# step2:构建网络结构,一个三层的线性全连接网络
class Net(nn.Module):# 继承 torch 的 Module(固定)

    def __init__(self):
        super(Net, self).__init__()# 继承 __init__ 功能(固定)
        # 定义每层用什么样的形式, 28*28=784是输入, 10是10种分类,这两个是固定的。 256和64是经验决定
        # xw+b,3层
        self.fc1 = nn.Linear(28*28, 256)# 定义fc1层,28*28输入,256线性输出
        self.fc2 = nn.Linear(256, 64)# 定义fc2层,256输入,64线性输出
        self.fc3 = nn.Linear(64, 10)# 定义fc3层,64输入,10线性输出

    # x是输入信息就是data,同时也是 Module 中的 forward 功能,
    # 定义神经网络前向传递的过程
    # 把__init__中的层信息一个一个的组合起来
    # 正向传播输入值, 神经网络分析出输出值
    def forward(self, x):
        # x: [b, 1, 28, 28]
        # h1 = relu(xw1+b1)
        x = F.relu(self.fc1(x))# 定义激励函数(隐藏层的线性值)
        # h2 = relu(h1w2+b2)
        x = F.relu(self.fc2(x))
        # h3 = h2w3+b3
        x = self.fc3(x)# 分类问题一般是softmax + mean squre error均方差 ,简单起见直接使用softmax

        return x



net = Net()# 实例化
# print(net)
# 神经网络结构如下
# Net(
#   (fc1): Linear(in_features=784, out_features=256, bias=True)
#   (fc2): Linear(in_features=256, out_features=64, bias=True)
#   (fc3): Linear(in_features=64, out_features=10, bias=True)
# )


# 1.optimizer神经网络优化器
# 2.优化方法:sgd/momentum/Nesterov/adagrad/adadelta
# 3.SGD 是最普通的优化器, 也可以说没有加速效果, 而 Momentum 是 SGD 的改良版, 它加入了动量原则.
# 后面的 RMSprop 又是 Momentum 的升级版. 而 Adam 又是 RMSprop 的升级版
# 4.Stochastic Gradient Descent (SGD)随机梯度下降
# 5.Momentum 传统的参数 W 的更新是把原始的 W 累加上一个负的学习率(learning rate) 乘以校正值 (dx).
# 6.这里的采取momentum 动量加速,在SGD函数里指定momentum的值,lr学习率
# 7.net.parameters(): 会帮我们拿到权值 [w1, b1, w2, b2, w3, b3]
optimizer = optim.SGD(net.parameters(), lr=0.01, momentum=0.9)

# 定义存贮损失函数loss值列表
train_loss = []

#  step3,开始训练,将数据集遍历三遍
for epoch in range(3):

    for batch_idx, (x, y) in enumerate(train_loader):# 对整个训练集迭代一次
        # 这里是对一个batch迭代一次,一次batch 512张图片
        # 输入 torch.Size([512, 1, 28, 28]) 输出 torch.Size([512])
        # x: [b, 1, 28, 28], y: [512]
        # 需要把输入tensor[b, 1, 28, 28] -> 打平为下面[b, feature]
        # [b, 1, 28, 28] => [b, 784]
        x = x.view(x.size(0), 28*28)# x.size(0)表示batch 512    (512, 1, 28, 28) -> (512, 784)
        # =>512行784列矩阵
        out = net(x)# 经过了class Net(nn.Module),输入512张784像素的图片

        y_onehot = one_hot(y)# 独热编码类别在[0,9]

        # loss = mse(out, y_onehot)   mse 是 均方差 mean squre error
        loss = F.mse_loss(out, y_onehot)# todo 1:计算out与y_onehot之间的均方差,得到loss

        optimizer.zero_grad()# 先对梯度进行清零
        loss.backward() # todo 2:梯度计算过程,计算梯度
        # w' = w - lr*grad  learn rate学习率
        optimizer.step()# todo 3:更新权值

        train_loss.append(loss.item())# 存储损失值

        if batch_idx % 10==0: # 每隔10个batch打印一下
            print(epoch, batch_idx, loss.item())#第几个大循环(一共3个), 第多少批次eg:10 20 30 , loss显示


# step4:画出训练过程的loss曲线
plot_curve(train_loss)
# we get optimal [w1, b1, w2, b2, w3, b3]

# step5,检验测试集的准确率。
total_correct = 0
for x,y in test_loader:
    x  = x.view(x.size(0), 28*28)
    out = net(x)
    # out: [b, 10] => pred: [b]
    pred = out.argmax(dim=1) #取得[b, 10]的10个值的最大值所在位置的索引
    correct = pred.eq(y).sum().float().item()#满足预测值与标签相等的张量值化为float相加
    total_correct += correct

total_num = len(test_loader.dataset)
acc = total_correct / total_num# test acc: 0.7799
print('test acc:', acc)

# 取一个batch,查看预测结果
x, y = next(iter(test_loader))
out = net(x.view(x.size(0), 28*28))
pred = out.argmax(dim=1)
plot_image(x, pred, 'test')






  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值