(一)深度学习系列之LeNet-5网络介绍以及pytorch代码实现手写数字识别

本文介绍了LeNet-5网络结构,包括卷积层、池化层和全连接层,并详细解析了每层的参数。通过PyTorch实现手写数字识别,使用了MNIST数据集进行训练,并提供了model.py、train.py和predict.py三个代码文件。
摘要由CSDN通过智能技术生成

论文链接:Gradient-based learning applied to document recognition

 一. 网络结构介绍

        LetNet-5是在1998年提出的一个比较简单的神经网络,但是其包含深度学习的基本模块:卷积层、池化层以及全连接层,其结构如图1所示。

 图1:LeNet-5网络结构图

1. 网络各层参数解析:

1.1 INPUT层:

        首先是数据输入层,输入图像尺寸统一是归一化后的32x32。

1.2 C1:卷积层

        输入:32x32

        卷积核:5x5

        卷积核个数:6

        输出:公式“(W − F + 2P )/S+1” ->(32-5+0)/1+1=28,即得到的输出为28x28

        注释:W为输入大小,F为卷积核大小,S为步长

1.3 S2:池化层

        输入:28x28

        卷积核:2x2

        输出:"(W-F)/S+1"->(28-2)/2+1=14

1.4 C3:卷积层

        输入:14x14

        卷积核:5x5

        卷积核个数:16

        输出:“(W-F+2F)/S+1”->(14-5+0)/1+1=10,即得到的输出为10x10

1.5 S4:池化层

        输入:10x10

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值