【深度学习】LeNet网络架构


什么是LeNet

LeNet是一种经典的卷积神经网络,由Yann LeCun等人在1998年提出。它是深度学习中第一个成功应用于手写数字识别的卷积神经网络,并且被认为是现代卷积神经网络的基础。

LeNet模型包含了多个卷积层和池化层,以及最后的全连接层用于分类。其中,每个卷积层都包含了一个卷积操作和一个非线性激活函数,用于提取输入图像的特征。池化层则用于缩小特征图的尺寸,减少模型参数和计算量。全连接层则将特征向量映射到类别概率上。

在这里插入图片描述


代码实现网络架构

如何搭建网络模型参考博客:Pytorch学习笔记(模型训练)
在这里插入图片描述我们采用CIFAR-10数据集进行训练测试,上面网络模型是1个channel的32x32,而我们的数据集是3个channel的32x32,模型结构不变,改变一下输入输出大小。
model.py:

import torch
from torch import nn


# 搭建网络模型
class LeNet(nn.Module):
    def __init__(self):
        super(LeNet, self).__init__()
        self.model = nn.Sequential(
            nn.Conv2d(3, 16, kernel_size=5, stride=1, padding=0),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2),
            nn.Conv2d(16, 32, kernel_size=5, stride=1, padding=0),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2),
            nn.Flatten(),
            nn.Linear(32 * 5 * 5, 120),
            nn.ReLU(),
            nn.Linear(120, 84),
            nn.ReLU(),
            nn.Linear(84, 10),
        )

    def forward(self, x):
        x = self.model(x)
        return x


# 测试
if __name__ == '__main__':
    leNet = LeNet()
    input = torch.ones((64, 3, 32, 32))
    output = leNet(input)
    print(output.shape)

train.py

import torch.optim
import torchvision.datasets
from torch import nn
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

from learning.lenet.model import LeNet

# 1. 数据集
dataset_train = torchvision.datasets.CIFAR10("./data", train=True, transform=torchvision.transforms.ToTensor(),
                                             download=True)
dataset_test = torchvision.datasets.CIFAR10("./data", train=True, transform=torchvision.transforms.ToTensor(),

                                            download=True)
train_data_size = len(dataset_train)
test_data_size = len(dataset_test)
# 2. 加载数据集
dataloader_train = DataLoader(dataset_train, batch_size=64)
dataloader_test = DataLoader(dataset_test, batch_size=64)

# 3. 搭建model
leNet = LeNet()
if torch.cuda.is_available():
    leNet = leNet.cuda()

# 4. 创建损失函数
loss_fn = nn.CrossEntropyLoss()
if torch.cuda.is_available():
    loss_fn = loss_fn.cuda()

# 5. 优化器
learning_rate = 0.1
optimizer = torch.optim.SGD(leNet.parameters(), lr=learning_rate)  # 随机梯度下降

# 6. 设置训练网络的一些参数
total_train_step = 0  # 记录训练次数
total_test_step = 0  # 训练测试次数
epoch = 5  # 训练轮数

# 补充tensorboard
writer = SummaryWriter("../../logs")

# 开始训练
for i in range(epoch):
    print(f"--------第{i+1}轮训练开始--------")
    # 训练
    leNet.train()
    for data in dataloader_train:
        imgs, targets = data
        if torch.cuda.is_available():
            imgs = imgs.cuda()
            targets = targets.cuda()
        outputs = leNet(imgs)
        loss = loss_fn(outputs, targets)

        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        total_train_step += 1
        if total_train_step % 100 == 0:
            print(f"训练次数:{total_train_step}---loss:{loss.item()}")
            writer.add_scalar("train_loss", loss.item(), total_train_step)

    # 测试
    leNet.eval()
    total_test_loss = 0  # 总体的误差
    total_accuracy = 0  # 总体的正确率
    with torch.no_grad():
        for data in dataloader_test:
            imgs, targets = data
            if torch.cuda.is_available():
                imgs = imgs.cuda()
                targets = targets.cuda()
            outputs = leNet(imgs)
            loss = loss_fn(outputs, targets)
            total_test_loss += loss.item()
            accuracy = (outputs.argmax(1) == targets).sum()
            total_accuracy += accuracy
    print(f"整体测试集上的loss:{total_test_loss}")
    print(f"整体测试集上的准确率:{total_accuracy/test_data_size}")
    writer.add_scalar("test_loss", total_test_loss, total_test_step)
    writer.add_scalar("total_accuracy", total_accuracy/test_data_size, total_test_step)
    total_test_step += 1

    # 保存每一轮训练的模型
    torch.save(leNet, f"leNet_{i+1}.pth")
    print("模式已保存")


writer.close()

在这里插入图片描述

5轮训练中,第5轮的准确率是最高的,采用第5轮的模型进行测试:

test.py

import torch
import torchvision.transforms
from PIL import Image

from learning.lenet.model import LeNet


# 需要测试的图片
image_path = "../../imgs/airplane.png"
image = Image.open(image_path)
image = image.convert('RGB')  # png图片多了一个透明度通道,修改成rgb三个通道
transform = torchvision.transforms.Compose([torchvision.transforms.Resize((32, 32)),
                                            torchvision.transforms.ToTensor()])
image = transform(image)
print(image.shape)


# 引入网络架构



# 读取网络模型  如果保存的模型是通过gpu训练出来的,需要添加 map_location=torch.device("cpu")
model_load = torch.load("leNet_5.pth", map_location=torch.device("cpu"))
# 原有的图片是没有bitch-size的,而我们的输入是需要的
image = torch.reshape(image, (1, 3, 32, 32))
model_load.eval()
with torch.no_grad():
    outputs = model_load(image)
print(outputs)

classes = ('plane', 'car', 'bird', 'cat',
               'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

print(classes[outputs.argmax(1)])

在这里插入图片描述


  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: LeNet神经网络是一个简单的卷积神经网络,可以用于手写数字识别。下面是编写LeNet神经网络的步骤: 1. 导入必要的库:需要导入PyTorch、NumPy等库。 2. 定义网络结构:LeNet包括两个卷积层、两个池化层和两个全连接层。 3. 初始化模型参数:需要对每一层的权重和偏置进行初始化。 4. 定义损失函数和优化器:通常使用交叉熵损失函数,并使用随机梯度下降(SGD)或其他优化器来最小化损失函数。 5. 训练网络:通过不断迭代训练数据和更新模型参数来训练网络。 6. 测试网络:使用测试数据评估模型的性能。 7. 保存模型:将训练好的模型保存到磁盘以便以后使用。 这些是编写LeNet神经网络的基本步骤,您还可以通过添加额外的层或修改模型参数来提高模型的性能。 ### 回答2: LeNet是一种经典的卷积神经网络,最初由Yann LeCun等人于1998年提出用于手写数字识别。下面将介绍如何编写LeNet神经网络。 1. 数据准备:首先,我们需要准备用于训练和测试的数据集。可以使用MNIST数据集,其中包含手写数字的图像和相应的标签。 2. 数据预处理:对于LeNet网络,我们需要将图像数据进行预处理,以便网络能够更好地学习。常见的预处理步骤包括将图像转为灰度图、归一化像素值等。 3. 模型架构定义:在编写LeNet网络之前,需要确定网络架构。典型的LeNet架构包括两个卷积层、两个池化层和三个全连接层。可以使用深度学习框架(如TensorFlow、PyTorch等)来定义网络架构。 4. 前向传播:编写前向传播函数以将输入图像通过网络进行传递。在LeNet中,输入图像首先通过卷积层进行特征提取,再经过池化层进行下采样。最后,通过全连接层将特征映射到对应的类别上。 5. 反向传播:编写反向传播函数以计算网络的梯度并更新参数。可以使用梯度下降优化算法(如SGD、Adam等)来优化网络。 6. 训练和测试:使用训练数据对网络进行训练,并使用测试数据对网络进行评估。可以设置适当的超参数(学习率、批大小等)来优化网络的性能。通过迭代训练和测试过程,可以不断优化网络以提高准确率。 总结来说,编写LeNet神经网络需要进行数据准备、数据预处理、模型架构定义、前向传播、反向传播以及训练和测试等步骤。随着深度学习框架的发展,编写LeNet网络相对较为简单,只需按照网络架构和流程进行编码即可。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值