自学神经网络总结4

写作动机

第一篇主要从数学建模的角度总结了近期自学神经网络的成果,但纸上得来终觉浅,不通过代码实现一遍很多东西终究只是空中楼阁。所以本篇总结主要从代码角度回顾总结自学成果。

尽量做到每日一次总结。

行文思路

仿照鱼书的风格,先给出计算图,再一步一步根据计算图搭建代码。

使用框架

因为笔者是一名医学生,所以选择现有的框架——pytorch进行代码的实现。

参考书籍

《动手学深度学习2.0》

2024/2/27——多层感知机

前两篇都是回归模型的建立,是输入数字和输出数字直接相联系。

而多层感知机则是在输入数字和输出数字之间建立新的节点,即“隐藏层”。

确定模型

  • 输入数字:多维度
  • 输出数字:多维度
  • 数字映射:由中间的“隐藏层”来辅助拟合更加复杂的映射关系

计算图

在这里插入图片描述

代码实现

from torch import nn
multi_net = nn.Sequential(
	nn.Linear(5,3),
	nn.ReLU(),
	nn.Linear(3,2)
	)

应用

解决的问题还是和Fashion-MNIST分类。

所以输入数字依旧是28×28的维度,输出数字依旧是对应的独热向量。

还是要先加载输入数字和输出数字:

import torch
from torch import nn
from d2l import torch as d2l

train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size=256)

接着搭建模型的骨架:

multi_net = nn.Sequential(
	nn.Flatten(),
	nn.Linear(28*28,256),
	nn.ReLU(),
	nn.Linear(256,10)
	)

然后填充骨架中的细节:

#初始化参数
def init_weights(m):
    if type(m) == nn.Linear:
        nn.init.normal_(m.weight, std=0.01)

multi_net.apply(init_weights)
#损失函数确定为交叉熵
loss = nn.CrossEntropyLoss(reduction='none')
#优化方法确定为梯度下降
trainer = torch.optim.SGD(multi_net.parameters(), lr=0.1)

万事俱备,只欠数据:

d2l.train_ch3(multi_net, train_iter, test_iter, loss, num_epochs=10, trainer)

结果是:
在这里插入图片描述

试着用来预测:

def predict_multi_net(multi_net, test_iter, n=6):
    for X, y in test_iter:
        break
    trues = d2l.get_fashion_mnist_labels(y)
    preds = d2l.get_fashion_mnist_labels(multi_net(X).argmax(axis=1))
    titles = [true +'\n' + pred for true, pred in zip(trues, preds)]
    d2l.show_images(
        X[0:n].reshape((n, 28, 28)), 1, n, titles=titles[0:n])

predict_multi_net(multi_net, test_iter)

结果如下:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值