写作动机
第一篇主要从数学建模的角度总结了近期自学神经网络的成果,但纸上得来终觉浅,不通过代码实现一遍很多东西终究只是空中楼阁。所以本篇总结主要从代码角度回顾总结自学成果。
尽量做到每日一次总结。
行文思路
仿照鱼书的风格,先给出计算图,再一步一步根据计算图搭建代码。
使用框架
因为笔者是一名医学生,所以选择现有的框架——pytorch进行代码的实现。
参考书籍
《动手学深度学习2.0》
2024/3/2——VGG
先搭建块,再用块搭建网络。
确定模型
- 输入数字:图片
- 输出数字:标签
- 数字映射:许多卷积块构成的网络
计算图
代码实现
先搭建块。
我们想要达到的效果是:输入卷积层数、卷积输入通道数、卷积输出通道数,自动生成一个卷积块:
import torch
from torch import nn
from d2l import torch as d2l
def VGG_BLOCK(conv_nums, input_nums, output_nums):
layers = []
for _ in range(conv_nums):
layers.append(nn.Conv2d(input_nums, output_nums, kernel_size=3, padding=1))
layers.append(nn.ReLU())
input_nums = output_nums
layers.append(nn.MaxPool2d(kernel_size=2, stride=2))
return nn.Sequential(*layers)
应用
我们用块搭建一个网络,依旧分类Fashion-MNIST。
还是先确定输入和输出:
batch_size=128
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=224)
然后搭建网络。
因为只有最初的输入通道数是不确定的,所以我们想要达到的效果是:
给出大网络中每个块的卷积层数和输出通道数(该层的输出通道数会自动变成下一层的输入通道数),即可搭建出网络。
代码如下:
# 首先确定大网络中每个块的分布
conv_architecture = (
(1, 64),
(1, 128),
(2, 256),
(2, 512),
(2, 512)
)
# 接着构建自适应网络
def VGG_NET(conv_architecture):
conv_blocks = []
input_numbers = 1
for (conv_nums, output_nums) in conv_architecture:
conv_blocks.append(
VGG_BLOCK(conv_nums, input_nums, output_nums))
input_nums = output_nums
return nn.Sequential(
*conv_blocks,
nn.Flatten(),
nn.Linear(output_nums*7*7, 4096),
nn.ReLU(),
nn.Dropout(0.5),
nn.Linear(4096, 4096),
nn.ReLU(),
nn.Dropout(0.5),
nn.Linear(4096, 10))
# 杀鸡焉用牛刀,换一个更小的块分布,即在原来的基础上缩小至1/4
simple_conv_architecture = small_conv_arch = [(pair[0], pair[1] // 4) for pair in conv_arch]
VGG_net = VGG_NET(simple_conv_architecture)
万事俱备,只欠数据:
lr = 0.05
epoch_nums = 10
d2l.train_ch6(VGG_net, train_iter, test_iter, epochs_nums, lr, d2l.try_gpu())
结果是: