卷积神经网络(CNN)

本文深入探讨卷积神经网络(CNN)的结构,包括卷积层、降采样层和全连接层,并介绍了LeNet-5实例。还总结了卷积的作用、边界处理、激活函数、Softmax回归和Dropout在CNN中的应用。附有丰富的资源链接帮助读者进一步理解CNN。
摘要由CSDN通过智能技术生成

卷积神经网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。它的特殊性体现在两个方面,一方面它的神经元间的连接是非全连接的(局部感受野), 另一方面同一层中某些神经元之间的连接的权重是相同的(权值共享)。局部感受野和权值共享这两大神器使CNN更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。


CNN的结构

卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成。

1、卷积层: 每一个神经元从上一层的局部感受野得到输人,因而迫使它提取局部特征。一旦一个特征被提取出来, 只要它相对于其他特征的位置被近似地保留下来,它的精确位置就变得没有那么重要了。卷积层是由多个特征映射组成的,每个特征映射都是平面形式的。同一个平面中单独的神经元在约束下共享相同的权值,这种结构形式具有如下的有益效果:a.平移不变性。b.自由参数数量的缩减(通过权值共享实现)。做完卷积后需要采用激活函数激活神经元。
2、降采样层:每个卷积层后面跟着一个实现局部平均和子抽样的降采样层,一般采用最大池化或平均池化操作,由此特征映射的分辨率降低。这种操作具有使特征映射的输出对平移和其他形式的变形的敏感度下降。
3、全连接层:全连接的方式,认为下一层的输出与上一层所有输入都有关。在实际使用中,全连接层可由卷积操作实现:对前层是全连接的全连接层可以转化为卷积核为1x1的卷积;而前层是卷积层的全连接层可以转化为卷积核为h*w的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值