LeNet-5网络

目录

1.输入层

2.C1层—— 卷积层

3.S2层——池化层(降采样层)

4.C3层——卷积层

4.S4层——池化层(降采样层)

5.C5层——卷积层

6.F6层——全连接层

7.输出层——全连接层


 

1.输入层

输入图像的尺寸统一归一化为32x32

本层不算LeNet-5网络结构

2.C1层—— 卷积层

输入图片:32x32

卷积核大小:5x5

卷积核种类:6

输出特征图大小:28x28((32-5)/1+1)

神经元数量:28x28x6

可训练参数:(5x5+1)x6(每个滤波器5x5=25个unit参数和1个bias参数,一共6个滤波器)

连接数:(5x5+1)x28x28x6=122304

理解:每个特征图连一个滤波器;每个特征图有10x10个神经元

3.S2层——池化层(降采样层)

输入大小:28x28

采样区域:2x2

采样方式:4个输入相加,乘以1个可训练参数,再加上一个可训练偏置

采样种类:6

输出特征图大小:14x14(28/2)

神经元数量:14x14x6

可训练参数:(1+1)x6=12

连接数:(2x2+1)x14x14x6

4.C3层——卷积层

输入大小:14X14(S2中所有6个特征图组合)

卷积核大小:5x5

卷积核种类:16

输出特征图大小:10x10((14-5)/1+1)

可训练参数: 6x(3x5x5+1)+9x(4x5x5+1)+1x(6x5x5+1)=1516

连接数:1516x10x10 

理解:16个滤波器,6个有3x5x5unit参数和1个bias参数,9个有4x5x5unit参数和1个bias参数,1个有6x5x5unit参数和1个bias参数;每个特征图有10x10个神经元

4.S4层——池化层(降采样层)

输入大小:10x10

采样区域:2x2

采样方式:4个输入相加,乘以1个可训练参数,再加上一个可训练偏置

采样种类:16

输出特征图大小:5x5(10/2)

神经元数量:5x5x16

可训练参数:(1+1)x16=12

连接数:(2x2+1)x5x5x16

5.C5层——卷积层

输入大小:5X5(S4中所有16个特征图组合)

卷积核大小:5x5

卷积核种类:120

输出特征图大小:1x1((5-5)/1+1)

可训练参数: (16x5x5+1)x120(全连接)

连接数: (16x5x5+1)x1x1x120

6.F6层——全连接层

输入大小:1x1(C5中的120维向量)

计算方式:计算输入向量和权重向量的点积,再加上一个偏置

卷积核大小:1x1

卷积核种类:84

输出特征图大小:1x1

可训练参数: (1x1+1)x84

连接数: (1x1+1)x84x1x1

7.输出层——全连接层

F6层与输出层的连接方式是高斯连接,与普通全连接的主要区别是用高斯连接进行串联的输出层内没有激活函数,含有高斯连接的LeNet-5神经网络需要使用基于高斯连接的特殊损失函数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: LeNet-5是一种经典的卷积神经网络结构,由Yann LeCun等人在1998年提出。它是用于手写数字识别的第一个成功应用的卷积神经网络LeNet-5的网络结构主要由7层组成,包括2个卷积层、2个下采样层和3个全连接层。 卷积层是LeNet-5的核心,第一个卷积层使用6个5x5的卷积核进行卷积操作,得到6个特征图。第二个卷积层使用16个5x5的卷积核,得到16个特征图。 下采样层在两个卷积层之间,用于减小特征图的尺寸。第一个下采样层使用2x2的最大池化操作,将每个2x2的区域中的最大值保留下来,得到减小一半的特征图。第二个下采样层同样使用2x2的最大池化操作,进一步减小特征图的尺寸。 全连接层将卷积层和下采样层的输出连接起来,用于将提取到的特征进行分类。第一个全连接层有120个神经元,将特征图转化为一个120维向量。第二个全连接层有84个神经元。最后一个全连接层有10个神经元,对应于0到9的手写数字的分类。 LeNet-5的网络结构图如下所示,清晰地展示了每一层之间的连接和数据流动,该结构为后来的卷积神经网络的发展提供了重要的基础。 在手写数字识别任务上,LeNet-5取得了很好的效果,并为卷积神经网络的应用奠定了基础。它的成功启发了后来更为复杂的网络结构的设计,对于图像识别、物体检测等领域有着重要的意义。 ### 回答2: LeNet-5是由Yann LeCun等人在1998年提出的一种经典的卷积神经网络结构,用于手写数字识别任务。LeNet-5网络结构如下图所示。 LeNet-5网络结构总共包括七层:两个卷积层、两个平均池化层和三个全连接层。 第一层是卷积层C1,输入为32x32的灰度图像,该层共有6个卷积核,每个尺寸为5x5。该层的输出为28x28x6的特征图。 接下来是平均池化层S2,使用窗口大小为2x2和2步长进行池化,将特征图的尺寸减半,得到14x14x6的输出。 第三层是卷积层C3,该层共有16个卷积核,每个尺寸为5x5。该层的输入为14x14x6的特征图,输出为10x10x16的特征图。 再经过一次平均池化层S4,使用窗口大小为2x2和2步长进行池化,得到5x5x16的输出。 接下来是全连接层C5,共有120个神经元,每个神经元与S4层的每一个输出相连。 然后是第二个全连接层F6,共有84个神经元,与C5层的每一个神经元相连。 最后是输出层,共有10个神经元,分别代表数字0-9的概率。 LeNet-5网络结构的设计考虑到了卷积层和池化层的交替使用,从而实现了特征的提取和降维。该网络结构在手写数字识别任务中取得了较好的表现,并为后续深度学习研究和应用奠定了基础。 ### 回答3: LeNet-5 是一种经典的卷积神经网络结构,由 Yann LeCun 提出,常被用于手写数字识别任务。下面是对 LeNet-5 网络结构的简要说明。 LeNet-5 网络结构包含了七层不同类型的神经网络层,层与层之间通过连接方式进行信息传递。以下是每一层的描述: 第一层是输入层,接收输入的手写数字图像,并进行预处理。图像的尺寸为32×32的灰度图像。 第二层是卷积层C1,采用6个大小为5×5的卷积核进行特征提取。每个卷积核与输入图像进行卷积操作,得到6张特征图。 第三层是下采样层S2,使用2×2的最大池化操作对C1层的特征图进行降维。此操作可减少特征图的尺寸,并保留重要的特征。 第四层是卷积层C3,采用16个大小为5×5的卷积核进行特征提取,与S2层的特征图进行卷积操作,生成16张特征图。 第五层是下采样层S4,同样使用2×2的最大池化进行降维,减小特征图的尺寸。 第六层是全连接层F5,将S4层的特征图展平为一维向量,并连接到全连接神经元。这个层的作用是进行特征的映射和分类。 最后一层是汇集层OUTPUT,采用softmax函数将F5层输出的信号进行分类,得到最终的结果,即输入图像对应的分类标签。 LeNet-5 网络结构适合处理手写数字的识别任务,因为卷积和池化操作可有效提取图像的局部特征,提高准确率,并且参数少,运算速度较快。这个结构为后来的深度学习研究奠定了基础。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

别管我啦就是说

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值