CNN反向传播

深度神经网络(DNN)反向传播的公式推导可以参考之前的博客:https://transformerswsz.github.io/2019/05/29/%E5%8F%8D%E5%90%91%E4%BC%A0%E6%92%AD/。
要套用DNN的反向传播算法到CNN,有几个问题需要解决:

  • 池化层没有激活函数,我们可以令池化层的激活函数为 g ( z ) = z g(z) = z g(z)=z,即激活后输出本身,激活函数的导数为1。
  • 池化层在前向传播的时候,对输入矩阵进行了压缩,我们需要反向推导出 δ l − 1 \delta^{l-1} δl1,这个方法与DNN完全不同。
  • 卷积层通过张量卷积,或者说若干个矩阵卷积求和得到当前层的输出,而DNN的全连接层是直接进行矩阵乘法而得到当前层的输出。我们需要反向推导出 δ l − 1 \delta^{l-1} δl1,计算方法与DNN也不同。
  • 对于卷积层,由于 W W W 使用的是卷积运算,那么从 δ l \delta^l δl 推导出该层的filter的 W , b W, b W,b 方式也不同。

在研究过程中,需要注意的是,由于卷积层可以有多个卷积核,各个卷积核的处理方法是完全相同且独立的,为了简化算法公式的复杂度,我们下面提到卷积核都是卷积层中若干卷积核中的一个。

下面将对上述问题进行逐一分析:

已知池化层的 δ l \delta^l δl,推导上一隐藏层的 δ l − 1 \delta^{l-1} δl1

在前向传播算法时,池化层一般我们会用MAX或者Average对输入进行池化,池化的区域大小已知。现在我们反过来,要从缩小后的误差 δ l \delta^l δl,还原前一次较大区域对应的误差。

在反向传播时,我们首先会把 δ l \delta^l δl 的所有子矩阵矩阵大小还原成池化之前的大小,然后如果是MAX,则把 δ l \delta^l δl 的所有子矩阵的各个池化局域的值放在之前做前向传播算法得到最大值的位置。如果是Average,则把 δ l \delta^l δl 的所有子矩阵的各个池化局域的值取平均后放在还原后的子矩阵位置。这个过程一般叫做 u p s a m p l e upsample upsample

示例

假设池化区域为2*2,步长为2, δ l \delta^l δl 的第k个子矩阵为:
δ k l = ( 2 8 4 6 ) \delta_k^l = \left( \begin{array}{ccc} 2 & 8 \\ 4 & 6 \end{array} \right) δkl=(2486)
我们先将 δ k l \delta_k^l δkl 还原,即变成:
( 0 0 2 8 0 2 8 0 0 4 6 0 0 0 0 0 ) \left( \begin{array}{cccc} 0 & 0 & 2 & 8 \\ 0 & 2 & 8 & 0 \\ 0 & 4 & 6 & 0 \\ 0 & 0 & 0 & 0 \\ \end{array} \right) 0000024028608000
如果是MAX,假设我们之前在前向传播时记录的最大值位置分别是左上、右下、右上、左下,则转换后的矩阵为:
( 2 0 0 0 0 0 0 8 0 4 0 0 0 0 6 0 ) \left( \begin{array}{cccc} 2 & 0 & 0 & 0 \\ 0 & 0 & 0 & 8 \\ 0 & 4 & 0 & 0 \\ 0 & 0 & 6 & 0 \\ \end{array} \right) 2000004000060800
如果是Average,转换后的矩阵为:
( 0.5 0.5 2 2 0.5 0.5 2 2 1 1 1.5 1.5 1 1 1.5 1.5 ) \left( \begin{array}{cccc} 0.5 & 0.5 & 2 & 2 \\ 0.5 & 0.5 & 2 & 2 \\ 1 & 1 & 1.5 & 1.5 \\ 1 & 1 & 1.5 & 1.5 \\ \end{array} \right) 0.50.5110.50.511221.51.5221.51.5
这样我们就得到了上一层 ∂ J ( W , b ) ∂ a k l − 1 \frac {\partial J(W, b)} {\partial a_k^{l-1}} akl1J(W,b) ,要得到 δ k l − 1 \delta_k^{l-1} δkl1
δ k l − 1 = ( ∂ a k l − 1 ∂ z k l − 1 ) T ∂ J ( W , b ) ∂ a k l − 1 = u p s a m p l e ( δ k l ) ⊙ σ ′ ( z k l − 1 ) \delta_k^{l-1} = (\frac {\partial a_k^{l-1}} {\partial z_k^{l-1}})^T \frac {\partial J(W, b)} {\partial a_k^{l-1}} = upsample(\delta_k^l) \odot \sigma'(z_k^{l-1}) δkl1=(zkl1akl1)Takl1J(W,b)=upsample(δkl)σ(zkl1)
其中, u p s a m p l e upsample upsample 函数完成了池化误差矩阵放大与误差重新分配的逻辑。

对于张量 δ l \delta^l δl ,我们有:
δ l − 1 = u p s a m p l e ( δ l ) ⊙ σ ′ ( z l − 1 ) \delta^{l-1} = upsample(\delta^l) \odot \sigma'(z^{l-1}) δl1=upsample(δl)σ(zl1)

已知卷积层的 δ l \delta^l δl,推导上一层隐藏层的 δ l − 1 \delta^{l-1} δl1

在DNN中,我们知道 δ l − 1 \delta^{l-1} δl1 δ l \delta^l δl 的递推关系为:
δ l − 1 = ∂ J ( W , b ) ∂ z l − 1 = ( ∂ z l ∂ z l − 1 ) T ∂ J ( W , b ) ∂ z l = ( ∂ z l ∂ z l − 1 ) T δ l \delta^{l-1} = \frac {\partial J(W, b)} {\partial z^{l-1}} = (\frac {\partial z^l} {\partial z^{l-1}})^T \frac {\partial J(W, b)} {\partial z^l} = (\frac {\partial z^l} {\partial z^{l-1}})^T \delta^l δl1=zl1J(W,b)=(zl1zl)TzlJ(W,b)=(zl1zl)Tδl
注意到 z l z^l zl z l − 1 z^{l-1} zl1 的关系为:
z l = a l − 1 ∗ W l + b l = σ ( z l − 1 ) ∗ W l + b l z^l = a^{l-1}*W^l + b^l = \sigma(z^{l-1})*W^l + b^l zl=al1Wl+bl=σ(zl1)Wl+bl
因此我们有:
δ l − 1 = ( ∂ z l ∂ z l − 1 ) T δ l = δ l ∗ r o t 180 ( W l ) ⊙ σ ′ ( z l − 1 ) \delta^{l-1} = (\frac {\partial z^l} {\partial z^{l-1}})^T \delta^l = \delta^l * rot180(W^l) \odot \sigma'(z^{l-1}) δl1=(zl1zl)Tδl=δlrot180(Wl)σ(zl1)
这里的式子其实和DNN的类似,区别在于对于含有卷积的式子求导时,卷积核被旋转了180度。即式子中的 r o t 180 ( ) rot180() rot180(),翻转180度的意思是上下翻转一次,接着左右翻转一次。在DNN中这里只是矩阵的转置。那么为什么呢?由于这里都是张量,直接推演参数太多了。我们以一个简单的例子说明为啥这里求导后卷积核要翻转。

假设我们 l − 1 l-1 l1 层的输出 a l − 1 a^{l-1} al1 是一个3*3的矩阵,第 l l l 层的卷积核 W l W^l Wl 是一个2*2矩阵,步幅为1,则输出 z l z^l zl 是一个 2*2的矩阵,这里 b l b^l bl 简化为0,则有:
a l − 1 ∗ W l = z l a^{l-1} * W^l = z^l al1Wl=zl
我们列出 a , W , z a, W, z a,W,z 的矩阵表达式如下:
( a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 ) ∗ ( w 11 w 12 w 21 w 22 ) = ( z 11 z 12 z 21 z 22 ) \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \\ \end{array} \right) * \left( \begin{array}{cc} w_{11} & w_{12} \\ w_{21} & w_{22} \\ \end{array} \right) = \left( \begin{array}{cc} z_{11} & z_{12} \\ z_{21} & z_{22} \\ \end{array} \right) a11a21a31a12a22a32a13a23a33(w11w21w12w22)=(z11z21z12z22)
根据卷积得出:
z 11 = a 11 w 11 + a 12 w 12 + a 21 w 21 + a 22 w 22 z 12 = a 12 w 11 + a 13 w 12 + a 22 w 21 + a 23 w 22 z 21 = a 21 w 11 + a 22 w 12 + a 31 w 21 + a 32 w 22 z 22 = a 22 w 11 + a 23 w 12 + a 32 w 21 + a 33 w 22 z_{11} = a_{11}w_{11} + a_{12}w_{12} + a_{21}w_{21} + a_{22}w_{22} \\ z_{12} = a_{12}w_{11} + a_{13}w_{12} + a_{22}w_{21} + a_{23}w_{22} \\ z_{21} = a_{21}w_{11} + a_{22}w_{12} + a_{31}w_{21} + a_{32}w_{22} \\ z_{22} = a_{22}w_{11} + a_{23}w_{12} + a_{32}w_{21} + a_{33}w_{22} \\ z11=a11w11+a12w12+a21w21+a22w22z12=a12w11+a13w12+a22w21+a23w22z21=a21w11+a22w12+a31w21+a32w22z22=a22w11+a23w12+a32w21+a33w22
接着我们模拟反向求导:
▽ a l − 1 = ∂ J ( W , b ) ∂ a l − 1 = ( ∂ z l ∂ a l − 1 ) T ∂ J ( W , b ) ∂ z l = ( ∂ z l ∂ a l − 1 ) T δ l \bigtriangledown a^{l-1} = \frac {\partial J(W, b)} {\partial a^{l-1}} = (\frac {\partial z^l} {\partial a^{l-1}})^T \frac {\partial J(W, b)} {\partial z^l} = (\frac {\partial z^l} {\partial a^{l-1}})^T \delta^l al1=al1J(W,b)=(al1zl)TzlJ(W,b)=(al1zl)Tδl
从上式可以看出,对于 a l − 1 a^{l-1} al1 的梯度误差 ▽ a l − 1 \bigtriangledown a^{l-1} al1 ,等于第 l l l 层的梯度误差乘以 ∂ z l ∂ a l − 1 \frac {\partial z^l} {\partial a^{l-1}} al1zl ,而 ∂ z l ∂ a l − 1 \frac {\partial z^l} {\partial a^{l-1}} al1zl 对应上面的例子中相关联的 w w w 的值。假设 z z z 矩阵对应的反向传播误差是 δ 11 , δ 12 , δ 21 , δ 22 \delta_{11}, \delta_{12}, \delta_{21}, \delta_{22} δ11,δ12,δ21,δ22 组成的2*2矩阵,则利用上面梯度的式子和4个等式,我们可以分别写出 ▽ a l − 1 \bigtriangledown a^{l-1} al1 的9个标量的梯度。

比如对于 a 11 a_{11} a11 的梯度,由于在4个等式中 a 11 a_{11} a11 只和 z 11 z_{11} z11 有乘积关系,从而我们有:
▽ a 11 = w 11 δ 11 \bigtriangledown a_{11} = w_{11}\delta_{11} a11=w11δ11
对于 a 12 a_{12} a12 的梯度,由于在4个等式中 a 12 a_{12} a12 z 11 , z 12 z_{11}, z_{12} z11,z12 有乘积关系,从而我们有:
▽ a 12 = w 11 δ 12 + w 12 δ 11 \bigtriangledown a_{12} = w_{11}\delta_{12} + w_{12}\delta_{11} a12=w11δ12+w12δ11
同理可得:
1
这上面9个式子其实可以用一个矩阵卷积的形式表示,即:
( 0 0 0 0 0 δ 11 δ 12 0 0 δ 21 δ 22 0 0 0 0 0 ) ∗ ( w 22 w 21 w 12 w 11 ) = ( ▽ a 11 ▽ a 12 ▽ a 13 ▽ a 21 ▽ a 22 ▽ a 23 ▽ a 31 ▽ a 32 ▽ a 33 ) \left( \begin{array}{cccc} 0 & 0 & 0 & 0 \\ 0 & \delta_{11} & \delta_{12} & 0 \\ 0 & \delta_{21} & \delta_{22} & 0 \\ 0 & 0 & 0 & 0 \end{array} \right) * \left( \begin{array}{cc} w_{22} & w_{21} \\ w_{12} & w_{11} \\ \end{array} \right) = \left( \begin{array}{cc} \bigtriangledown a_{11} & \bigtriangledown a_{12} & \bigtriangledown a_{13} \\ \bigtriangledown a_{21} & \bigtriangledown a_{22} & \bigtriangledown a_{23} \\ \bigtriangledown a_{31} & \bigtriangledown a_{32} & \bigtriangledown a_{33} \end{array} \right) 00000δ11δ2100δ12δ2200000(w22w12w21w11)=a11a21a31a12a22a32a13a23a33
为了符合梯度计算,我们在误差矩阵周围填充了一圈0,此时我们将卷积核翻转后和反向传播的梯度误差进行卷积,就得到了前一次的梯度误差。这个例子直观的介绍了为什么对含有卷积的式子反向传播时,卷积核要翻转180度的原因。

以上就是卷积层的误差反向传播过程。

已知卷积层的 δ l \delta^l δl,推导该层的 W , b W, b W,b 的梯度

对于全连接层,可以按DNN的反向传播算法求该层 W , b W, b W,b 的梯度,而池化层并没有 W , b W, b W,b ,也不用求 W , b W, b W,b 的梯度。只有卷积层的 W , b W, b W,b 需要求出。

注意到卷积层 z z z W , b W, b W,b 的关系为:
z l = a l − 1 ∗ W l + b z^l = a^{l-1} * W^l + b zl=al1Wl+b
因此我们有:
∂ J ( W , b ) ∂ W l = a l − 1 ∗ δ l \frac {\partial J(W, b)} {\partial W^l} = a^{l-1} * \delta^l WlJ(W,b)=al1δl
注意到此时卷积核并没有反转,主要是此时是层内的求导,而不是反向传播到上一层的求导。具体过程我们可以分析一下。

这里举一个简化的例子,这里输入是矩阵,不是张量,那么对于第 l l l 层,某个卷积核矩阵 W W W 的导数可以表示如下:
∂ J ( W , b ) ∂ W p q l = ∑ i ∑ j ( δ i j l a i + p − 1 , j + q − 1 l − 1 ) \frac {\partial J(W, b)} {\partial W_{pq}^l} = \sum_i \sum_j(\delta_{ij}^l a_{i+p-1, j+q-1}^{l-1}) WpqlJ(W,b)=ij(δijlai+p1,j+q1l1)
那么根据上面的式子,我们有:
∂ J ( W , b ) ∂ W 11 l = a 11 δ 11 + a 12 δ 12 + a 21 δ 21 + a 22 δ 22 ∂ J ( W , b ) ∂ W 12 l = a 12 δ 11 + a 13 δ 12 + a 22 δ 21 + a 23 δ 22 ∂ J ( W , b ) ∂ W 13 l = a 13 δ 11 + a 14 δ 12 + a 23 δ 21 + a 24 δ 22 . . . . . . ∂ J ( W , b ) ∂ W 33 l = a 33 δ 11 + a 34 δ 12 + a 43 δ 21 + a 44 δ 22 \frac {\partial J(W, b)} {\partial W_{11}^l} = a_{11}\delta_{11} + a_{12}\delta_{12} + a_{21}\delta_{21} + a_{22}\delta_{22} \\ \frac {\partial J(W, b)} {\partial W_{12}^l} = a_{12}\delta_{11} + a_{13}\delta_{12} + a_{22}\delta_{21} + a_{23}\delta_{22} \\ \frac {\partial J(W, b)} {\partial W_{13}^l} = a_{13}\delta_{11} + a_{14}\delta_{12} + a_{23}\delta_{21} + a_{24}\delta_{22} \\ ...... \\ \frac {\partial J(W, b)} {\partial W_{33}^l} = a_{33}\delta_{11} + a_{34}\delta_{12} + a_{43}\delta_{21} + a_{44}\delta_{22} \\ W11lJ(W,b)=a11δ11+a12δ12+a21δ21+a22δ22W12lJ(W,b)=a12δ11+a13δ12+a22δ21+a23δ22W13lJ(W,b)=a13δ11+a14δ12+a23δ21+a24δ22......W33lJ(W,b)=a33δ11+a34δ12+a43δ21+a44δ22
最终我们可以一共得到9个式子。整理成矩阵形式后可得:
∂ J ( W , b ) ∂ W l = ( a 11 a 12 a 13 a 14 a 21 a 22 a 23 a 24 a 31 a 32 a 33 a 34 a 41 a 42 a 43 a 44 ) ∗ ( δ 11 δ 12 δ 21 δ 22 ) \frac {\partial J(W, b)} {\partial W^l} = \left( \begin{array}{cccc} a_{11} & a_{12} & a_{13} & a_{14} \\ a_{21} & a_{22} & a_{23} & a_{24} \\ a_{31} & a_{32} & a_{33} & a_{34} \\ a_{41} & a_{42} & a_{43} & a_{44} \end{array} \right) * \left( \begin{array}{cccc} \delta_{11} & \delta_{12} \\ \delta_{21} & \delta_{22} \end{array} \right) WlJ(W,b)=a11a21a31a41a12a22a32a42a13a23a33a43a14a24a34a44(δ11δ21δ12δ22)
从而可以清楚的看到这次我们为什么没有反转的原因。

而对于 b b b,则稍微有些特殊,因为 δ l \delta^l δl 是高维张量,而 b b b 只是一个向量,不能像DNN那样直接和 δ l \delta^l δl 相等。通常的做法是将 δ l \delta^l δl 的各个子矩阵的项分别求和,得到一个误差向量,即为 b b b 的梯度:
∂ J ( W , b ) ∂ b l = ∑ u , v ( δ l ) u , v \frac {\partial J(W, b)} {\partial b^l} = \sum_{u, v}(\delta^l)_{u, v} blJ(W,b)=u,v(δl)u,v

CNN反向传播算法总结

现在我们总结下CNN的反向传播算法,以最基本的批量梯度下降法为例来描述反向传播算法。

输入:m个图片样本,CNN模型的层数L和所有隐藏层的类型,对于卷积层,要定义卷积核的大小K,卷积核子矩阵的维度F,填充大小P,步幅S。对于池化层,要定义池化区域大小k和池化标准(MAX或Average),对于全连接层,要定义全连接层的激活函数(输出层除外)和各层的神经元个数。梯度学习率 α \alpha α,最大迭代次数MAX与停止迭代阈值 ϵ \epsilon ϵ

输出:CNN模型各隐藏层与输出层的 W , b W, b W,b

  1. 初始化各隐藏层与输出层的各 W , b W, b W,b 的值为一个随机值。
  2. for iter to 1 to MAX:
    1. for i =1 to m:
      1. 将CNN输入 a 1 a^1 a1 设置为 x i x_i xi 对应的张量
      2. for l = 2 to L-1,根据下面3种情况进行前向传播算法计算:
      • 如果当前是全连接层:则有 a i , l = σ ( z i , l ) = σ ( W l a i , l − 1 + b l ) a^{i, l} = \sigma(z^{i, l}) = \sigma(W^l a^{i, l-1} + b^l) ai,l=σ(zi,l)=σ(Wlai,l1+bl)
      • 如果当前是卷积层:则有 a i , l = σ ( z i , l ) = σ ( W l ∗ a i , l − 1 + b l ) a^{i, l} = \sigma(z^{i, l}) = \sigma(W^l * a^{i, l-1} + b^l) ai,l=σ(zi,l)=σ(Wlai,l1+bl)
      • 如果当前是池化层:则有 a i , l = p o o l ( a i , l − 1 ) a^{i, l} = pool(a^{i, l-1}) ai,l=pool(ai,l1)
      1. 对于输出层第L层: a i , L = s o f t m a x ( z i , L ) = s o f t m a x ( W L a i , L − 1 + b L ) a^{i, L} = softmax(z^{i, L}) = softmax(W^L a^{i, L-1} + b^L) ai,L=softmax(zi,L)=softmax(WLai,L1+bL)
      2. 通过损失函数计算输出层的 δ i , L \delta^{i, L} δi,L
      3. for l = L-1 to 2, 根据下面3种情况进行进行反向传播算法计算:
        • 如果当前是全连接层: δ i , l = ( W l + 1 ) T δ i , l + 1 ⊙ σ ′ ( z i , l ) \delta^{i, l} = (W^{l+1})^T \delta^{i, l+1} \odot \sigma'(z^{i, l}) δi,l=(Wl+1)Tδi,l+1σ(zi,l)
        • 如果当前是卷积层: δ i , l = δ i , l + 1 ∗ r o t 180 ( W l + 1 ) ⊙ σ ′ ( z i , l ) \delta^{i, l} = \delta^{i, l+1} * rot180(W^{l+1}) \odot \sigma'(z^{i, l}) δi,l=δi,l+1rot180(Wl+1)σ(zi,l)
        • 如果当前是池化层: δ i , l = u p s a m p l e ( δ i , l + 1 ) ⊙ σ ′ ( z i , l ) \delta^{i, l} = upsample(\delta^{i, l+1}) \odot \sigma'(z^{i, l}) δi,l=upsample(δi,l+1)σ(zi,l)
    2. for l = 2 to L,根据下面2种情况更新第 l l l 层的 W l , b l W^l, b^l Wl,bl
      • 如果当前是全连接层: W l = W l − α ∑ i = 1 m δ i , l ( a i , l − 1 ) T , b l = b l − α ∑ i = 1 m δ i , l W^l = W^l - \alpha \sum_{i=1}^m \delta^{i, l}(a^{i, l-1})^T, b^l = b^l - \alpha \sum_{i=1}^m \delta^{i, l} Wl=Wlαi=1mδi,l(ai,l1)T,bl=blαi=1mδi,l
      • 如果当前是卷积层,对于每一个卷积核有: W l = W l − α ∑ i = 1 m δ i , l ∗ a i , l − 1 , b l = b l − α ∑ i = 1 m ∑ u , v ( δ i , l ) u , v W^l = W^l - \alpha \sum_{i=1}^m \delta^{i, l} * a^{i, l-1}, b^l = b^l - \alpha \sum_{i=1}^m \sum_{u, v}(\delta^{i, l})_{u, v} Wl=Wlαi=1mδi,lai,l1,bl=blαi=1mu,v(δi,l)u,v
    3. 如果所有的 W , b W, b W,b 的变化值都小于停止迭代阈值 ϵ \epsilon ϵ,则跳出迭代循环到步骤3。
  3. 输出各隐藏层与输出层的线性关系系数矩阵 W W W 和偏置量 b b b

转载自:https://www.cnblogs.com/pinard/p/6494810.html?tdsourcetag=s_pcqq_aiomsg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值