图像分类算法篇——LeNet-5

        LeNet-5为卷积神经网络架构的鼻祖,它是由Yann Lecun于1998年创建,已经被广泛应用于手写体数字识别

一、网络架构

LeNet-5架构
类型特征图大小内核大小步幅激活函数
OUT全连接——10————RBF
F6全连接——84————tanh
C4卷积1201*15*51tanh
S3平均池化165*52*22tanh
C3卷积1610*105*51tanh
S2平均池化614*142*22tanh
C1卷积628*285*51tanh
In输入132*32——————

        MNIST图像为28×28像素,但是将其零填充为32×32像素并在送入网络之前进行了归一化 网络的其余部分不使用任何填充,这就是图像随着网络延展而尺寸不断缩小的原因。


        平均池化层比一般的池化层要复杂一些:每个神经元计算其输入的平均值,然后将结果乘以可学习的系数(每个特征图一个) 并添加一个可学习的偏置项(同样每个特征图一个),最后应用激活函数。


        C3特征图中的大多数神经元仅连接到了在S2特征图中的三个或四个神经元(而不是S2特征图中的所有6个)。有关详细信息,请参见原始论文中的表1(第8页)注10。

        F6层全连接层为84,主要因为标准数字图像尺寸为12*7=84

        输出层有点特殊:每个神经元输出的是输入向量和权重向量之间的欧几里得距离的平方,而不是计算输入向是和权重向量的矩阵乘法。每个输出测量图像属于特定数字类别的程度。交叉嫡成本函数现在是首选。因为它对不良预测的惩罚更大,产生更大的梯度并收敛更快。

二、激活函数

        LeNet-5在卷积层和池化层使用tanh激活函数,其中:

tanh(z) = 2\sigma (2z)-1

其图像为:

        全连接层激活函数为RBF,每个神经元输出的是输入向量和权重向量之间的欧几里得距离的平方,而不是计算输入向是和权重向量的矩阵乘法。其中:

径向基神经网络的激活函数可表示为:
在这里插入图片描述

其中xp为第p个输入样本,ci为第i个中心点,h为隐含层的结点数,n是输出的样本数或分类数。径向基神经网络的结构可得到网络的输出为:

  当然,采用最小二乘的损失函数表示:

 三、构建LeNet-5网络

from tensorflow import keras
model=keras.models.Sequential([
    keras.layers.Conv2D(filters=6,kernel_size=[5,5],strides=1,padding="SAME",input_shape=(28,28,1),activation="tanh"),
    keras.layers.MaxPooling2D(pool_size=2),
    keras.layers.Conv2D(filters=16,kernel_size=[5,5],strides=1,padding="SAME",activation="tanh"),
    keras.layers.MaxPooling2D(pool_size=2),
    keras.layers.Conv2D(filters=120,kernel_size=[5,5],strides=1,padding="SAME",activation="tanh"),
    keras.layers.Flatten(),
    keras.layers.Dense(84,activation="tanh"),
    keras.layers.Dense(10,activation="softmax")
])

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

樱花的浪漫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值