LeNet-5

本文主要为学习笔记,如有错误和侵权请联系本人。

1.网络结构
  1. 输入层(INPUT):输入是32x32x1的图像
  2. 第一个卷积层(C1):卷积核大小为:5x5,卷积核的个数为:6,滑动步长为:1,经过该卷积层后得到的feature maps为:6@28x28(6个28x28的特征图)。
  3. 第一个池化层(S2):池化层中核的大小为2x2,步长为2,经过该层之后特征图的大小为6@14x14。
  4. 第二个卷积层(C3):卷积核的大小为5x5,卷积核的个数为16,滑动步长为1,经过该层卷积后得到的feature maps为16@10x10。
  5. 第二个池化层(S4):池化层中核的大小为2x2,步长为2,经过该层之后特征图的大小为16@5x5
  6. 全连接层1(C5):该层可以通过120个卷积核组实现,卷积核组的大小为16x5x5(即卷积核的大小为5x5,数量为16个),经过该层后得到的输出为120维的向量。(即该层有120个神经元)注意:该全连接层是通过卷积方式实现的。
  7. 全连接层2(F6):该层的输入是120个特征,输出是84个特征,该层有84个神经元。
  8. 输出层(OUTPUT):该层有10个神经元,该层每个神经元的输入是84维的特征向量,输出是10维的特征向量。
    在这里插入图片描述
2.待训练的参数个数
输入输出核大小步长训练参数
输入层(INPUT)1x32x320
卷积层11x32x326x28x286个5x5的卷积核16*(5*5+1)=156
池化层16x28x286x14x142x220
卷积层26x14x1416x10x1016个6x5x5的卷积核116*(655+1)=2416
池化层216x10x1016x5x52x220
全连接层116x5x5120x1x1120个16x5x5的卷积核1120*(1655+1)=48120
全连接层212084120*84+84=10164
输出层841084*10+10=850

因此网络总共需要训练的参数为:156+2416+48120+10164+850=61706

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值