LeNet模型

参考文章 https://www.cnblogs.com/hd-zg/p/8724694.html

论文地址  Gradient-based learning applied to document recognition

卷积神经网络主要由两部分组成,一部分是特征提取(卷积、激活函数、池化),另一部分是分类识别(全连接层) 

LeNet模型结构:C层表示卷积层;S层是一个池化层

 

C3层的第0个特征图和S2层的第0、1、2个feature map相连接,计算过程为:用三个卷积模板分别于S2层的三个features map卷积,将卷积结果求和+b,取sigmoid得到卷积后对应的feature map。有的是3个卷积模板,有的是4个,有的是6个,最后的参数个数:(5*5*3+1)*6+(5*5*4+1)*9+(5*5*6+1)=1516

输入卷积核/池化单元参数个数连接数输出
INPUT    32*32的灰度图
C1卷积层32*325*5 深度为6,无0填充,步长为1(5*5+1)*6=156
5*5为卷积核,1为偏置参数
卷积后的图像大小为28*28,因此每个特征图有28*28个神经元,每个卷积核参数为(5*5+1)*6,该层连接数为(5*5+1)*6*28*28=122304(32-5)/1+1=28
28*28*6
S2池化层28*28*62*2,步长为22*6=12 每个特征图共享参数w、b,6个特征图下采样之后图像大小为14*14,因此每个特征图有14*14个神经元,每个池化单元连接数为2*2+1,该层连接数为    (2*2+1)*14*14*6=5880池化单元之间没有重叠,相当于每两行两列算出一个值。计算过程:2*2单元中值相加,乘训练参数w,+偏置b,取sigmoid
14*14*6
C3卷积层14*4*65*5 深度为16(5*5*3+1)*6+(5*5*4+1)*9+5*5*5*5*6+1=1516
C3与S2不是全连接而是部分连接,
具体见表格下方解释
特征图大小*参数数量
1516*10*10
(14-5)/1+1=10
10*10*16
S4池化层10*10*162*22*16=32每个池化单元连接数为2*2+1,每个特征图有5*5个神经元,该层连接数为(2*2+1)*5*5*16=20005*5*16
C5卷积层5*5*165*5 深度为120(5*5*16+1)*120=4812048120*1*1=481201*1*120
F6全连接层1*1*12084(120+1)*84=1016410164*1*1=101641*1*84
OUTPUT1*1*8410个节点,代表0~984*10=840840*1*1=8401*1*10

output层,共有10个节点,分别代表数字0到9。如果第i个节点的值为0,则表示网络识别的结果是数字i。.该层采用径向基函数(RBF)的网络连接方式,假设x是上一层的输入,y是RBF的输出,则RBF输出的计算方式是:
 
上式中的Wij的值由i的比特图编码确定,i从0到9,j取值从0到7×12-1。RBF输出的值越接近于0,表示当前网络输入的识别结果与字符i越接近。

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值