自学神经网络总结3

写作动机

第一篇主要从数学建模的角度总结了近期自学神经网络的成果,但纸上得来终觉浅,不通过代码实现一遍很多东西终究只是空中楼阁。所以本篇总结主要从代码角度回顾总结自学成果。

尽量做到每日一次总结。

行文思路

仿照鱼书的风格,先给出计算图,再一步一步根据计算图搭建代码。

使用框架

因为笔者是一名医学生,所以选择现有的框架——pytorch进行代码的实现。

参考书籍

《动手学深度学习2.0》

2024/2/26——softmax回归

和线性回归相比,softmax回归的差异主要在输出数字的维度——线性回归是一个,softmax回归是多个。

当然,“softmax”意味着在最后的输出数字阶段,会有进一步的处理,即指数求和再相除的阶段。

确定模型

  • 输入数字:多维度
  • 输出数字:多维度
  • 数字映射:输入数字直接“加权求和”

计算图

在这里插入图片描述
同理,输入和输出的维度都不是确定的。

代码实现

from torch inmport nn
softmax_net = nn.Sequential(nn.Linear(5,3))

应用

首先确定输入数字和输出数字。

本次拟解决的问题是简单的图像分类,使用的数据集是Fashion-MNIST。

该数据集的数据结构是:图像+标签。

一共有10种物品,每种物品有7000张,其中6000张用于训练,1000张用于测试。

每张图像的像素是28×28。

还是先要将输入数字和输出数字加载到迭代器中:

import torch
from torch import nn
from d2l import torch as d2l

train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size=256)

接着实现模型骨架:

softmax_net = nn.Sequential(nn.Flatten(), nn.Linear(28*28,10))
#nn.Flatten()的作用是把28*28的图像拉成一个长条

然后填充模型的细节:

#初始化参数
def init_weights(m):
    if type(m) == nn.Linear:
        nn.init.normal_(m.weight, std=0.01)

softmax_net.apply(init_weights)

确定损失函数时要注意,出于计算的考虑,在运用损失函数时,数据是用的softmax处理前的:

#损失函数确定为交叉熵
loss = nn.CrossEntropyLoss(reduction='none')

反向优化的方法依旧选择梯度下降:

#优化方法定为梯度下降
trainer = torch.optim.SGD(net.parameters(), lr=0.1)

万事俱备,只欠数据:

num_epochs = 10
d2l.train_ch3(softmax_net, train_iter, test_iter, loss, num_epochs, trainer)

结果是:
在这里插入图片描述
最后用来看看预测效果如何:

def predict_softmax_net(softmax_net, test_iter, n=6):
    for X, y in test_iter:
        break
    trues = d2l.get_fashion_mnist_labels(y)
    preds = d2l.get_fashion_mnist_labels(net(X).argmax(axis=1))
    titles = [true +'\n' + pred for true, pred in zip(trues, preds)]
    d2l.show_images(
        X[0:n].reshape((n, 28, 28)), 1, n, titles=titles[0:n])

predict_softmax_net(softmax_net, test_iter)

结果如下:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值