卷积神经网络反向传播理论推导

原创 2017年06月08日 10:44:25

    本文首先简单介绍CNN的结构,并不作详细介绍,若需要了解推荐看CS231n课程笔记翻译:卷积神经网络笔记。本文只要讲解CNN的反向传播,CNN的反向传播,其实并不是大多所说的和全连接的BP类似,CNN的全连接部分的BP是与它相同,但是CNN中卷积--池化、池化--卷积部分的BP是不一样的,仔细推导,还是有很多细节地方需要思考的,比如1、在前向传播的过程中,卷积层的输入,是通过卷积核与前一层的输出特征图卷积得来的,那么在反向传播的过程中该怎么处理?这个就与全连接神经网络不同了。2、由于在前向传播的时候,池化层会对前一层卷积层进行放缩,那么从池化层到卷积层BP的时候,小尺度的池化层怎么把误差反传到大尺度的卷积层(这里的大小是一般而言,卷积层一张特征图经池化之后尺度会变小)?这个就与全连接神经网络完全不同!3、公式推导中,或者某些库的函数实现过程中,卷积核为什么要翻转180度?ps.本文是根据汇报的PPT更改,里面有很多图和文字就直接截图了,里面的每一个公式都是我和F.Tao讨论和推导过的,如有错误欢迎指正。

    还是先首先贴一张CNN结构图吧,下面这张图个人认为是结构很清晰的,每一层是什么,以及卷积层+池化层和全连接层在做什么工作都表达的很好,来源Google搜索。

    要明白卷积操作是用来干嘛的,是用来提取特征的,反向传播的意义又是什么?因为初始的时候卷积核的值都是随机设定的,我们可以根据前向传播的预测结果,进行误差分析,不断地修改卷积核的值,使得更好的提取特征,就是反向传播的意义。


    对卷积和池化操作直观的理解就如下图:

    对应的网络连接结构图如下所示:
    这里要说明两个概念,一个是卷积,一个是协相关,这两个概念是很多人都不清楚的,以至于把协相关当成了卷积来使用。


    那么卷积层对输入的卷积操作就变成了如下:

    下面一下CNN中的几个注意的点:

   可以从下图中找出对应的连接方式(注:下面的L包含了卷积和池化两个部分,但不妨碍理解):

    下面三张图截取自3D CNN,为了更加详细说明每一层是什么,每一层那个是特征图,那些是神经元。




前向传播:
    这里只说CNN前向传播不同于全连接前向传播的部分,即:输入层到卷积层和卷积层到池化层。

1、输入层到卷积层的前向传播
输入层到卷积层,采用的是局部连接,参数共享,卷积操作的方式,进行计算的,有个最好的说明就是cs231n笔记中的gif图,现展示如下:

    图中有两个卷积核,w0和w1,注:这两个卷积核是已经翻转过的,然后进行协相关操作。由于输入的是3个通道的图片,因此每个卷积核也必须是3个通道的。所谓局部连接、权值共享都在这幅图上体现的淋淋尽致,非常好的表达。
    现作理论推导:



2、卷积层到池化层的前向传播:

    前向传播比较简单,介绍就到这里,下面分析反向传播算法:
    CNN的反向传播其实与全连接神经网络的反向传播有很大不同,只是从最后的输出层到最后一个卷积层的池化层的误差计算方式是相同的,但是从池化层到卷积层,卷积层到输出层(or池化层)的误差传播方式与全连接网络是大不相同的。











参考:
http://www.jefkine.com/general/2016/09/05/backpropagation-in-convolutional-neural-networks/
http://www.cnblogs.com/pinard/p/6494810.html
http://manutdzou.github.io/2016/05/15/CNN-backpropagation.html
版权声明:本文为博主原创文章,转载需注明出处。 举报

相关文章推荐

卷积神经网络反向传播推导

以TensorFlow的卷积神经网络为例卷积-池-卷积-池-全连接-softmax 前向传导C1层:卷积神经网络的输入是28×28的矩阵AA,经过F1F_1个5×5的卷积核K1i(i=1,2,......

CNN卷积神经网络--反向传播(3,Notes on Convolutional Neural Networks)

一、介绍          这个文档讨论的是CNNs的推导和实现。CNN架构的连接比权值要多很多,这实际上就隐含着实现了某种形式的规则化。这种特别的网络假定了我们希望通过数据驱动的方式学习到一些滤波...

我是如何成为一名python大咖的?

人生苦短,都说必须python,那么我分享下我是如何从小白成为Python资深开发者的吧。2014年我大学刚毕业..

CNN卷积神经网络---反向传播(1,全链接bp算法)

全链接bp算法 这里作为自己对卷积神经网络反向传播算法的理解。首先还是从经典的全链接bp算法开始。 1、前向传播     所谓神经网络就是将许多个单一“神经元”联结在一起,这样,一个“神...

斯坦福大学卷积神经网络----Module 1 Lesson 4 反向传播

原文地址:http://cs231n.github.io/optimization-2/ 标题:Backpropagation,Intuitions 随手翻译,不当之处请指正介绍动机 在这个部分...

编写C语言版本的卷积神经网络CNN之三:CNN的误差反向传播过程

原创文章 转载请注册来源http://blog.csdn.net/tostq               上一节我们介绍了卷积神经网络的前向传播过程,这一节我们重点介绍反向传播过程,反向传播...
  • tostq
  • tostq
  • 2016-06-30 10:27
  • 3236

CNN卷积神经网络反向传播机制的理解

最近

CNN卷积神经网络--反向传播(2,前向传播)

看cnn,首先还是看看前向传播,在细谈反向求导。     CNN的这三个特点是其对输入数据在空间(主要针对图像数据)上和时间(主要针对时间序列数据,参考TDNN)上的扭曲有很强的鲁棒性。CNN...

深度卷积神经网络学习笔记2:步长不为1的卷积前向传播和反向传播

卷积层的维度计算        假设卷积层的输入大小x*x为5*5,卷积核大小k*k为3*3,步长stride为2,假设不填充,输出维度将会是(x-k)/2+1,即为2*2;如果步长为1,那么输出将会...
  • meadl
  • meadl
  • 2017-03-31 18:50
  • 1307

BP神经网络:误差反向传播公式的简单推导

最近看了一下BP神经网络(Backpropagation Neural Networks),发现很多资料对于BP神经网络的讲解注重原理,而对于反向传播公式的推导介绍的比较简略,故自己根据《PATTER...
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)