CNN反向传播和普通神经网络的联系和比较

BP神经网络反向传播

反向传播是BP神经网络的特点,在之前的博客中已经粗略介绍了BP神经元以及反向传播的特点,对反向传播用较为直观图示解释。

本博客将重点介绍其反向传播的传播过程。
首先明确概念,反向传播就是得到整个网络的输出对每个门单元的梯度的过程。

举例说明, f(x1,x2,x3,x4)=(max(x1,x2)+x3)x4 f ( x 1 , x 2 , x 3 , x 4 ) = ( m a x ( x 1 , x 2 ) + x 3 ) ∗ x 4

那么, dfdx1 d f d x 1 , dfdx2 d f d x 2 , dfdx3 d f d x 3 , dfdx4 d f d x 4 如何计算,含义是什么?

1.如果 x1>x2 x 1 > x 2 , 那么 dfdx1=x4 d f d x 1 = x 4 ,反之为0,也就是说如果 x1>x2 x 1 > x 2 ,那么 x1 x 1 对输出有影响,反之没影响
2.如果 x2>x1 x 2 > x 1 , 那么 dfdx2=x4 d f d x 2 = x 4 ,反之为0,含义与 x1 x 1 相同
3. dfdx3=x4 d f d x 3 = x 4 ,这说明 x3 x 3 的变化对整个输出的影响与 x4 x 4 成正比
4. dfdx4=max(x1,x2)+x3 d f d x 4 = m a x ( x 1 , x 2 ) + x 3 ,这说明 x4 x 4 的变化对整个输出的影响与 max(x1,x2)+x3 m a x ( x 1 , x 2 ) + x 3 成正比

其次,总结加法,乘法,最大值操作对梯度的作用。
1 加法门单元把输出的梯度相等地分发给它所有的输入
2 取最大值门单元对梯度做路由
3 乘法门单元是相互交换输入值

根据以上方法计算梯度,我们就可以知道,应该改变哪几个变量,才能使整个网络的loss function值最小,这也就完成了反向传播的过程

上述计算的梯度,我们可以借助雅可比矩阵(jacobi matrix) 存储,雅可比矩阵的形式如下:

y1x1y2x1ynx1y1x2y2x2ynx2y1xny2xnynxn [ ∂ y 1 ∂ x 1 ∂ y 1 ∂ x 2 ⋯ ∂ y 1 ∂ x n ∂ y 2 ∂ x 1 ∂ y 2 ∂ x 2 ⋯ ∂ y 2 ∂ x n ⋮ ⋮ ⋱ ⋮ ∂ y n ∂ x 1 ∂ y n ∂ x 2 ⋯ ∂ y n ∂ x n ]

举个例子,如果输入 x x 为4096维向量,f=max(x,0)
1.那么雅可比矩阵的尺寸?
40964096 4096 ∗ 4096

2.这个雅可比矩阵是怎样的?
只有对角线上有值,其余为0,并且如果 xi x i 小于0,那么雅可比矩阵第i行i列的值也为0,如果 xi x i 大于0,那么雅可比矩阵第i行i列的值为1

CNN反向传播

有了上面的讨论之后,CNN的反向传播就容易理解了很多,这里我们主要讨论卷积层和pooling层的反向传播。

卷积层

下面的图片引自CNN的反向传播

这里写图片描述

事实上,卷积层跟普通的全连接层的不同之处就在于参数的共享,也就是说,并不是每一个输入像素所对应的权重都不同,这主要是为了减少在图像领域参数过多导致的过拟合现象。而参数共享之所以可以得到很好的效果,与图像的局部相关性有关,某一个位置的像素可能只与周围一定范围内的像素相关,与距离很远的像素关系不大。

因此基于上述分析以及对于bp链式法则的了解,我们可以定义后一层的误差为 lossl l o s s l ,其中 l l 表示层数。从而求前一层的误差lossl1,以及权重的导数 dfdwl d f d w l ,以及偏置的导数 dfdbl d f d b l

首先我们来计算误差 lossl1 l o s s l − 1

lossl1=lossl.dzldal1.σ(zl1) l o s s l − 1 = l o s s l . ∗ d z l d a l − 1 . ∗ σ ′ ( z l − 1 )

其中, zl z l 表示第 l l 层的输入,al1表示第 l1 l − 1 层输出,那么这个问题就转换为,计算 dzldal1 d z l d a l − 1

以上图为例,我们计算左上角位置 (0,0) ( 0 , 0 ) 的导数,因为这个像素只与粉色权重相乘,所以它的导数就是粉色权重。位置 (0,1) ( 0 , 1 ) 的导数,在卷积核的滑动过程中会分别与绿色权重和粉色权重相连,因此,它的导数包括了这两部分。如果用公式来表示上述过程:

lossl1=lossl.rot180(Wl).σ(zl1) l o s s l − 1 = l o s s l . ∗ r o t 180 ( W l ) . ∗ σ ′ ( z l − 1 )

权重的导数 dfdwl d f d w l ,以及偏置的导数 dfdbl d f d b l 就很容易计算了,分别为 al1lossl a l − 1 ∗ l o s s l 以及 lossl l o s s l

pooling层

pooling层理解起来就更为简单,将之前卷积层的计算公式照搬下来, dzldal1 d z l d a l − 1 理解为对 lossl l o s s l 上采样之后求导。

lossl1=lossl.dzldal1.σ(zl1) l o s s l − 1 = l o s s l . ∗ d z l d a l − 1 . ∗ σ ′ ( z l − 1 )

那么这个上采样过程就分为两种,一种是average,一种是max。在average的计算中,将 lossl l o s s l 平分给每个位置,而max时,只把 lossl l o s s l 放在最大位置即可,其他与卷积的计算相同

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值