卷积神经网络初探——LeNet-5的原理与手写数字识别的实现

本文基于您已经了解卷积神经网络的基本知识,在此之上介绍LeNet5的原理,以及利用它实现MNIST手写数字识别。

MNIST数据集

MNIST数据集是一个手写体数据集,数据集中每一个样本都是一个0-9的手写数字。该数据集由四部分组成,训练图片集,训练标签集,测试图片集和测试标签集。其中,训练集中有60000个样本,测试集中有10000个样本。每张照片均为28*28的二值图片,为方便存储,官方已对图片集进行处理,将每一张图片变成了维度为(1,784)的向量。

LeNet-5

LeNet是一种典型的卷积神经网络的结构,由Yann LeCun发明。它的网路结构如下图:

LeNet-5共有7层(不包含输入),每层都包含可训练参数。

输入图像大小为32x32,比MNIST数据集的图片要大一些,这么做的原因是希望潜在的明显特征如笔画断点或角能够出现在最高层特征检测子感受野(receptive field)的中心。因此在训练整个网络之前,需要对28x28的图像加上paddings(即周围填充0)。

  • C1层:该层是一个卷积层。使用6个大小为5x5的卷积核对输入层进行卷积运算,特征图尺寸为32-5+1=28,因此产生6个大小为28x28的特征图。这么做够防止原图像输入的信息掉到卷积核边界之外。

  • S2层:该层是一个池化层(pooling,也称为下采样层)。这里采用max_pool(最大池化),池化的size定为2x2,池化的具体过程如下图(图引自cs231n)

经池化后得到6个14x14的特征图,作为下一层神经元的输入。
  • C3层:该层仍为一个卷积层,我们选用大小为5x5的16种不同的卷积核。这里需要注意:C3中的每个特征图,都是S2中的所有6个或其中几个特征图进行加权组合得到的。输出为16个10x10的特征图。

  • S4层:该层仍为一个池化层,size为2x2,仍采用max_pool。最后输出16个5x5的特征图,神经元个数也减少至16x5x5=400。

  • C5层:该层我们继续用5x5的卷积核对S4层的输出进行卷积,卷积核数量增加至120。这样C5层的输出图片大小为5-5+1=1。最终输出120个1x1的特征图。这里实际上是与S4全连接了,但仍将其标为卷积层,原因是如果LeNet-5的输入图片尺寸变大,其他保持不变,那该层特征图的维数也会大于1x1。

  • F6层:该层与C5层全连接,输出84张特征图。为什么是84?下面有论文的解释(感谢翻译)。

  • 输出层:该层与F6层全连接,输出长度为10的张量,代表所抽取的特征属于哪个类别。(例如[0,0,0,1,0,0,0,0,0,0]的张量,1在index=3的位置,故该张量代表的图片属于第三类)

此处为论文对F6层和输出层的解释:

输出层由欧式径向基函数(Euclidean Radial Basis Function)单元组成,每类一个单元,每个有84个输入。换句话说,每个输出RBF单元计算输入向量和参数向量之间的欧式距离。输入离参数向量越远,RBF输出的越大。一个RBF输出可以被理解为衡量输入模式和与RBF相关联类的一个模型的匹配程度的惩罚项。用概率术语来说,RBF输出可以被理解为F6层配置空间的高斯分布的负log-likelihood。给定一个输入模式,损失函数应能使得F6的配置与RBF参数向量(即模式的期望分类)足够接近。这些单元的参数是人工选取并保持固定的(至少初始时候如此)。这些参数向量的成分被设为-1或1。虽然这些参数可以以-1和1等概率的方式任选,或者构成一个纠错码,但是被设计成一个相应字符类的7*12大小(即84)的格式化图片。这种表示对识别单独的数字不是很有用,但是对识别可打印ASCII集中的字符串很有用。
使用这种分布编码而非更常用的“1 of N”编码用于产生输出的另一个原因是,当类别比较大的时候,非分布编码的效果比较差。原因是大多数时间非分布编码的输出必须为0。这使得用sigmoid单元很难实现。另一个原因是分类器不仅用于识别字母,也用于拒绝非字母。使用分布编码的RBF更适合该目标。因为与sigmoid不同,他们在输入空间的较好限制的区域内兴奋,而非典型模式更容易落到外边。

RBF参数向量起着F6层目标向量的角色。需要指出这些向量的成分是+1或-1,这正好在F6 sigmoid的范围内,因此可以防止sigmoid函数饱和。实际上,+1和-1是sigmoid函数的最大弯曲的点处。这使得F6单元运行在最大非线性范围内。必须避免sigmoid函数的饱和,因为这将会导致损失函数较慢的收敛和病态问题。

MNIST手写体数字识别代码实现

基于LeNet-5的原理,我使用了TensorFlow来做了简单实现。

Features:

  • 没有对中间的神经元使用激活函数,仅仅对输出层用了softmax函数,同时增加了dropout来避免过拟合。
  • 使用了tensorflow的常规api和封装好的高层api(tf.contrib)实现了两个版本。高层api版本无法在我的渣渣GPU(GT745M,2G)上跑,而底层api可以。
  • Test accuracy大概徘徊在98.2%~97.5%
    代码在这里

参考资料

Gradient-Based Learning Applied to Document Recognition
CNN - TensorFlow
通俗理解卷积神经网络

转载于:https://juejin.im/post/5935771ffe88c20061d6beb4

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值