写作动机
第一篇主要从数学建模的角度总结了近期自学神经网络的成果,但纸上得来终觉浅,不通过代码实现一遍很多东西终究只是空中楼阁。所以本篇总结主要从代码角度回顾总结自学成果。
尽量做到每日一次总结。
行文思路
仿照鱼书的风格,先给出计算图,再一步一步根据计算图搭建代码。
使用框架
因为笔者是一名医学生,所以选择现有的框架——pytorch进行代码的实现。
参考书籍
《动手学深度学习2.0》
2024/2/27——多层感知机
前两篇都是回归模型的建立,是输入数字和输出数字直接相联系。
而多层感知机则是在输入数字和输出数字之间建立新的节点,即“隐藏层”。
确定模型
- 输入数字:多维度
- 输出数字:多维度
- 数字映射:由中间的“隐藏层”来辅助拟合更加复杂的映射关系
计算图
代码实现
from torch import nn
multi_net = nn.Sequential(
nn.Linear(5,3),
nn.ReLU(),
nn.Linear(3,2)
)
应用
解决的问题还是和Fashion-MNIST分类。
所以输入数字依旧是28×28的维度,输出数字依旧是对应的独热向量。
还是要先加载输入数字和输出数字:
import torch
from torch import nn
from d2l import torch as d2l
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size=256)
接着搭建模型的骨架:
multi_net = nn.Sequential(
nn.Flatten(),
nn.Linear(28*28,256),
nn.ReLU(),
nn.Linear(256,10)
)
然后填充骨架中的细节:
#初始化参数
def init_weights(m):
if type(m) == nn.Linear:
nn.init.normal_(m.weight, std=0.01)
multi_net.apply(init_weights)
#损失函数确定为交叉熵
loss = nn.CrossEntropyLoss(reduction='none')
#优化方法确定为梯度下降
trainer = torch.optim.SGD(multi_net.parameters(), lr=0.1)
万事俱备,只欠数据:
d2l.train_ch3(multi_net, train_iter, test_iter, loss, num_epochs=10, trainer)
结果是:
试着用来预测:
def predict_multi_net(multi_net, test_iter, n=6):
for X, y in test_iter:
break
trues = d2l.get_fashion_mnist_labels(y)
preds = d2l.get_fashion_mnist_labels(multi_net(X).argmax(axis=1))
titles = [true +'\n' + pred for true, pred in zip(trues, preds)]
d2l.show_images(
X[0:n].reshape((n, 28, 28)), 1, n, titles=titles[0:n])
predict_multi_net(multi_net, test_iter)
结果如下: