首先这是一个官方demo,PyTorch官网入门实现一个图像分类器
下图是卷积,池化,全连接层在神经网络中的作用(分工)
本文是学习B站深度学习与图像处理的up做的笔记
本文参考主要如下:
1.B站宝藏up讲解视频
2.PyTorch官方文档
3.某博主的课程笔记
官方demo的流程
- model.py:定义LeNet网络模型
- train.py:加载数据集并训练,训练集计算loss,测试集计算accuracy,保存训练好的网络参数
- predict.py:得到训练好的网络参数后,用自己找的图像进行分类测试
model.py代码
import torch.nn as nn
import torch.nn.functional as F
class LeNet(nn.Module):
def __init__(self): # 初始化函数
super(LeNet, self).__init__() # 涉及到多继承一般会使用super函数
"""
卷积层的计算公式
N = (W - F + 2P) / S + 1
1.输入的图片大小为 w*w
2.Filter大小F*F
3.步长S
4.padding的像素数p
"""
# 第一个参数代表输入特征矩阵的参数 第二个函数是输入卷积层的个数 第三个参数代表卷积层的大小
self.conv1 = nn.Conv2d(3, 16, 5)
# 第一个参数是池化和的大小 第二个参数为步距
self.pool1 = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(16, 32, 5)
self.pool2 = nn.MaxPool2d(2, 2)
self.fc1 = nn.Linear(32*5*5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x): # 定义正向传播
x = F.relu(self.conv1(x)) # input(3, 32, 32) output(16, 28, 28)
x = self.pool1(x) # output(16, 14, 14)
# relu为激活函数
x = F.relu(self.conv2(x)) # output(32, 10, 10)
x = self.pool2(x) # output(32, 5, 5)
# view函数的作用是吧特征矩阵展开为一维向量形式
# 这里的-1不是一个有意义的数,在这“暂时占位”,可以把它理解为未知数x,他会根据第二个维度反推这个x
x = x.view(-1, 32*5*5) # output(32*5*5)
x = F