剖析LeNet-5 网络结构

目录

引言 

结构概述

结构分析

 训练参数分析


引言 

        LeNet-5是Yann Lecun 提出的一种经典卷积神经网络,是现代卷积神经网络的起源之一;本文将从LeNet的结构和参数上来介绍LeNet-5结构。

结构概述

        上图是LeNet-5的经典结构,它一共有七层(不包含输入层),分别是两个卷积层,两个池化层,3个全连接层(其中最后一个全连接层为输出层)

结构分析

        首先输入是一个32x32的图片,通过六个5x5x1的卷积核对其进行卷积,产生6幅28x28的卷积特征图,然后这6幅特征图又经过2x2的池化提取,变成6幅14x14的特征图,这样第一个卷积+池化的操作就完成了(C1+S2)

        之后又对这6幅14x14的特征图使用16个5x5x6的卷积核进行卷积,产生16幅10x10的卷积特征图,然后这16幅特征图又经过2x2的池化提取,变成16幅5x5的特征图。

        很多同学可能不能理解5x5x6的卷积核是怎么回事,这里我要说明一下,所谓卷积核不一定就是二维的一个矩阵,它也是一个三维的卷积核,每个5x5x6的卷积核实际执行的操作是同时对6幅特征图进行卷积操作,每幅特征图对应一个5x5x1的卷积核,最后6幅图卷积的结果再加在一起,等效于一个5x5x6的卷积核的卷积结果。

        继续分析,池化后的16幅5x5的特征图还会经过一次卷积,即120个5x5x16的卷积核对16幅5x5的特征图进行卷积,得到120幅1x1的特征图;我们称这层也叫全连接层,因为每个神经元都与前面的16幅特征图相连,其实实质上这算一次卷积操作。

        之后就是一个120输入84输出的全连接层和一个84输入10输出的输出层(使用softmax激活)

 训练参数分析

 

        我们知道,只有全连接层和卷积层需要进行参数的训练,池化层和输入层是不需要训练参数的。

        第一层卷积: 6x5x5(6个5x5矩阵) + 6(每个卷积核还有一个偏置项)

        第二层卷积:16x5x5x6(16个5x5x6的卷积核)+16(每个卷积核还有一个偏置项)

        第三层卷积(第一全连接层):120x5x5x16(120个5x5x16的卷积核)+120(每个卷积核还有一个偏置项)

        第二全连接层:120x84+84

        第三全连接层(输出层):84x10 + 10

        从这个分析我们可以看出,其实大部分的训练参数还是集中在全连接层上

  • 6
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: LeNet-5是一种经典的卷积神经网络结构,由Yann LeCun等人在1998年提出。它是用于手写数字识别的第一个成功应用的卷积神经网络LeNet-5的网络结构主要由7层组成,包括2个卷积层、2个下采样层和3个全连接层。 卷积层是LeNet-5的核心,第一个卷积层使用6个5x5的卷积核进行卷积操作,得到6个特征图。第二个卷积层使用16个5x5的卷积核,得到16个特征图。 下采样层在两个卷积层之间,用于减小特征图的尺寸。第一个下采样层使用2x2的最大池化操作,将每个2x2的区域中的最大值保留下来,得到减小一半的特征图。第二个下采样层同样使用2x2的最大池化操作,进一步减小特征图的尺寸。 全连接层将卷积层和下采样层的输出连接起来,用于将提取到的特征进行分类。第一个全连接层有120个神经元,将特征图转化为一个120维向量。第二个全连接层有84个神经元。最后一个全连接层有10个神经元,对应于0到9的手写数字的分类。 LeNet-5的网络结构图如下所示,清晰地展示了每一层之间的连接和数据流动,该结构为后来的卷积神经网络的发展提供了重要的基础。 在手写数字识别任务上,LeNet-5取得了很好的效果,并为卷积神经网络的应用奠定了基础。它的成功启发了后来更为复杂的网络结构的设计,对于图像识别、物体检测等领域有着重要的意义。 ### 回答2: LeNet-5是由Yann LeCun等人在1998年提出的一种经典的卷积神经网络结构,用于手写数字识别任务。LeNet-5网络结构如下图所示。 LeNet-5网络结构总共包括七层:两个卷积层、两个平均池化层和三个全连接层。 第一层是卷积层C1,输入为32x32的灰度图像,该层共有6个卷积核,每个尺寸为5x5。该层的输出为28x28x6的特征图。 接下来是平均池化层S2,使用窗口大小为2x2和2步长进行池化,将特征图的尺寸减半,得到14x14x6的输出。 第三层是卷积层C3,该层共有16个卷积核,每个尺寸为5x5。该层的输入为14x14x6的特征图,输出为10x10x16的特征图。 再经过一次平均池化层S4,使用窗口大小为2x2和2步长进行池化,得到5x5x16的输出。 接下来是全连接层C5,共有120个神经元,每个神经元与S4层的每一个输出相连。 然后是第二个全连接层F6,共有84个神经元,与C5层的每一个神经元相连。 最后是输出层,共有10个神经元,分别代表数字0-9的概率。 LeNet-5网络结构的设计考虑到了卷积层和池化层的交替使用,从而实现了特征的提取和降维。该网络结构在手写数字识别任务中取得了较好的表现,并为后续深度学习研究和应用奠定了基础。 ### 回答3: LeNet-5 是一种经典的卷积神经网络结构,由 Yann LeCun 提出,常被用于手写数字识别任务。下面是对 LeNet-5 网络结构的简要说明。 LeNet-5 网络结构包含了七层不同类型的神经网络层,层与层之间通过连接方式进行信息传递。以下是每一层的描述: 第一层是输入层,接收输入的手写数字图像,并进行预处理。图像的尺寸为32×32的灰度图像。 第二层是卷积层C1,采用6个大小为5×5的卷积核进行特征提取。每个卷积核与输入图像进行卷积操作,得到6张特征图。 第三层是下采样层S2,使用2×2的最大池化操作对C1层的特征图进行降维。此操作可减少特征图的尺寸,并保留重要的特征。 第四层是卷积层C3,采用16个大小为5×5的卷积核进行特征提取,与S2层的特征图进行卷积操作,生成16张特征图。 第五层是下采样层S4,同样使用2×2的最大池化进行降维,减小特征图的尺寸。 第六层是全连接层F5,将S4层的特征图展平为一维向量,并连接到全连接神经元。这个层的作用是进行特征的映射和分类。 最后一层是汇集层OUTPUT,采用softmax函数将F5层输出的信号进行分类,得到最终的结果,即输入图像对应的分类标签。 LeNet-5 网络结构适合处理手写数字的识别任务,因为卷积和池化操作可有效提取图像的局部特征,提高准确率,并且参数少,运算速度较快。这个结构为后来的深度学习研究奠定了基础。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值