卷积神经网络的现代雏形——LeNet

一、前言

LeNet-5出自论文Gradient-Based Learning Applied to Document Recognition,是一个用来识别手写数字的最经典的卷积神经网络,是Yann LeCun在1998年设计并提出的。
就是我
个人主页:http://yann.lecun.com/
论文链接:https://pan.baidu.com/s/1nEQFgsonFVm790MhJA8kDw 提取码: 27cq

二、LeNet模型结构

在这里插入图片描述
输入层: 32×32 大小的图像,卷积核为5×5,步长为1,所以32-5+1=28,C1层卷积特征图的大小为28×28,共有6个

C1层: 输入层到C1层的连接数为C1层的网格个数(6×28×28)乘以每个网格对应连接数(5×5+1),即6×28×28×(5×5+1)=122304。
参数个数为6 ×(5×5+1)=156,后面那个1是bias

S2层: 池化层又称下采样层,卷积核大小为2×2,步长为2,这里是平均池化,所以参数为权值加上bias为2,2×6=12个参数。连接数为(2×2+1)×(6×14×14)=5880个连接。

C3层: S2到C3这就是难点了!
S2到C3并不对称,那么它是怎么对应的呢?如下表:
在这里插入图片描述
在这里插入图片描述

S4层: S4与S2同理,故参数为2×16=32个,连接数为5×16×5×5=2000个

C5:
输入:S4层的全部16个单元特征map(与s4全相连)

卷积核大小:5*5

卷积核种类:120

输出featureMap大小:1×1(5-5+1)

可训练参数/连接:120×(16×5×5+1)=48120
在这里插入图片描述
F6:

输入:c5 120维向量

计算方式:计算输入向量和权重向量之间的点积,再加上一个偏置,结果通过sigmoid函数输出。

可训练参数:84*(120+1)=10164

详细说明:6层是全连接层。F6层有84个节点,对应于一个7x12的比特图,-1表示白色,1表示黑色,这样每个符号的比特图的黑白色就对应于一个编码。该层的训练参数和连接数是(120 + 1)x 84=10164。ASCII编码图如下:
在这里插入图片描述
在这里插入图片描述

输出层:
Output层也是全连接层,共有10个节点,分别代表数字0到9,且如果节点i的值为0,则网络识别的结果是数字i。采用的是径向基函数(RBF)的网络连接方式。假设x是上一层的输入,y是RBF的输出,则RBF输出的计算方式是:
在这里插入图片描述
上式w_ij 的值由i的比特图编码确定,i从0到9,j取值从0到7*12-1。RBF输出的值越接近于0,则越接近于i,即越接近于i的ASCII编码图,表示当前网络输入的识别结果是字符i。该层有84x10=840个参数和连接。
在这里插入图片描述

参考:
https://cuijiahua.com/blog/2018/01/dl_3.html
《深度学习:卷积神经网络从入门到精通》这本书很不错~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

龚大龙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值