百度百科解释
卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一 。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络(Shift-Invariant Artificial Neural Networks, SIANN)” 。
对卷积神经网络的研究始于二十世纪80至90年代,时间延迟网络和LeNet-5是最早出现的卷积神经网络 ;在二十一世纪后,随着深度学习理论的提出和数值计算设备的改进,卷积神经网络得到了快速发展,并被应用于计算机视觉、自然语言处理等领域 。
卷积神经网络仿造生物的视知觉(visual perception)机制构建,可以进行监督学习和非监督学习,其隐含层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量对格点化(grid-like topology)特征,例如像素和音频进行学习、有稳定的效果且对数据没有额外的特征工程(feature engineering)要求 。
了解
中文名:卷积神经网络
外文名:Convolutional Neural Network, CNN、
类型:机器学习算法,神经网络算法
提出者:Yann LeCun,Wei Zhang,Alexander Waibel 等
提出时间:1987-1989年
学科:人工智能
应用:计算机视觉,自然语言处理
卷积
在泛函分析中,卷积、旋积或摺积(英语:Convolution)是通过两个函数f和g 生成第三个函数的一种数学算子,表征函数f与g经过翻转和平移的重叠部分函数值乘积对重叠长度的积分。
如果将参加卷积的一个函数看作区间的指示函数,卷积还可以被看作是“滑动平均”的推广。
简介
褶积(又名卷积)和反褶积(又名去卷积)是一种积分变换的数学方法,在许多方面得到了广泛应用。用褶积解决试井解释中的问题,早就取得了很好成果;而反褶积,直到最近,Schroeter、Hollaender和Gringarten等人解决了其计算方法上的稳定性问题,使反褶积方法很快引起了试井界的广泛注意。有专家认为,反褶积的应用是试井解释方法发展史上的又一次重大飞跃。他们预言,随着测试新工具和新技术的增加和应用,以及与其它专业研究成果的更紧密结合,试井在油气藏描述中的作用和重要性必将不断增大 。
池化
什么是池化?
pooling,小名池化,思想来自于视觉机制,是对信息进行抽象的过程。
上图就是一个池化的示意图,用了一个1010的卷积核,对2020的图像分块不重叠的进行了池化,池化之后featuremap为2*2的大小。
池化的作用
1.增大感受野
所谓感受野,即一个像素对应回原图的区域大小,假如没有pooling,一个33,步长为1的卷积,那么输出的一个像素的感受野就是33的区域,再加一个stride=1的33卷积,则感受野为55。
假如我们在每一个卷积中间加上3*3的pooling呢?很明显感受野迅速增大,这就是pooling的一大用处。感受野的增加对于模型的能力的提升是必要的,正所谓“一叶障目则不见泰山也”。
2.平移不变性
我们希望目标的些许位置的移动,能得到相同的结果。因为pooling不断地抽象了区域的特征而不关心位置,所以pooling一定程度上增加了平移不变性。
3.降低优化难度和参数
我们可以用步长大于1的卷积来替代池化,但是池化每个特征通道单独做降采样,与基于卷积的降采样相比,不需要参数,更容易优化。全局池化更是可以大大降低模型的参数量和优化工作量。
示例
(个人理解:提取特征,前细后粗)