卷积神经网络——CNN

最近开始学习卷积神经网络的相关内容,学习了许多博主的文章,在最后列出了参考的部分链接。在学习了别人的文章后,加以自己的理解,整理了以下内容,方便自己和其他小白日后的学习与复习。如有遗漏链接,请联系我,谢谢。

一、卷积神经网络的组成结构

卷积神经网络一共可以划分为五层,分别是数据输入层,卷积计算层,ReLU激励层,池化层与全连接层。

• 数据输入层( Input layer)
  • 卷积计算层( CONV layer)
  • ReLU激励层(ReLU layer)
  • 池化层 (Pooling layer)
  • 全连接层 (FC layer)

二、具体介绍各部分组成内容

1.数据输入层
该层要做的处理主要是对原始图像数据进行预处理,其中包括:
  • 去均值:把输入数据各个维度都中心化为0,如下所示,其目的就是把样本的中心拉回到坐标系原点上。
  • 归一化:幅度归一化到同样的范围,如下所示,即减少各维度数据取值范围的差异而带来的干扰。比如,我们有两个维度的特征A和B,A范围是0到10,而B范围是0到10000,如果直接使用这两个特征是有问题的,好的做法就是归一化,即A和B的数据都变为0到1的范围。
  • PCA/白化:用PCA降维;白化是对数据各个特征轴上的幅度归一化

 

2.卷积计算层

卷积可以理解为,在原始的输入上进行特征的提取。特征提取简言之就是,在原始输入上一个小区域一个小区域进行特征的提取,下面讲解卷积的计算过程。

对于任何一张图片来说,image以RGB的形式保存,如果对于一张 32*32 pixels的图片来说,我们会得到3个32*32的矩阵(分别为R,G,B)。那么把这三个矩阵放在一起,就可以得到原来图像可以看作一个32*32*3的矩阵。

如上图,左边的方块可以看作是一个输入图片,也就是数据输入层( Input layer),而右边的图片可以看作是一个滤波器(filter),尺寸为5*5,深度为3,最终通过滤波器的不断移动(滑动窗口),与输入层做运算,最终可以得到一个深度为1的特征图。但一般会采用多个filter分别对原图片进行卷积,最终可以得到多个特征图。

  • 0
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习善于从原始输入数据中挖掘越来越抽象的特征表示,而这些表示 具有良好的泛化能力.它克服了过去人工智能中被认为难以解决的一些问题.且随着训练数据集数量的显著增长 以及芯片处理能力的剧增,它在目标检测和计算机视觉、自然语言处理、语音识别和语义分析等领域成效卓然,因 此也促进了人工智能的发展.深度学习是包含多级非线性变换的层级机器学习方法,深层神经网络是目前的主要 形式,其神经元间的连接模式受启发于动物视觉皮层组织,而卷积神经网络则是其中一种经典而广泛应用的结构. 卷积神经网络的局部连接、权值共享及池化操作等特性使之可以有效地降低网络的复杂度,减少训练参数的数目, 使模型对平移、扭曲、缩放具有一定程度的不变性,并具有强鲁棒性和容错能力,且也易于训练和优化.基于这些优 越的特性,它在各种信号和信息处理任务中的性能优于标准的全连接神经网络.该文首先概述了卷积神经网络的 发展历史,然后分别描述了神经元模型、多层感知器的结构.接着,详细分析了卷积神经网络的结构,包括卷积层、 池化层、全连接层,它们发挥着不同的作用.然后,讨论了网中网模型、空间变换网络等改进的卷积神经网络.同时, 还分别介绍了卷积神经网络的监督学习、无监督学习训练方法以及一些常用的开源工具.此外,该文以图像分类、 人脸识别、音频检索、心电图分类及目标检测等为例,对卷积神经网络的应用作了归纳.卷积神经网络与递归神经 网络的集成是一个途径.为了给读者以尽可能多的借鉴,该文还设计并试验了不同参数及不同深度的卷积神经网 络来分析各参数间的相互关系及不同参数设置对结果的影响.最后,给出了卷积神经网络及其应用中待解决的若 干问题

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值