NNDL 作业8 卷积 导数 反向传播

习题5-2 证明宽卷积具有交换性, 即公式(5.13).

证明:rot180(W)\otimes \tilde{}X=rot180(X)\otimes \tilde{}W

   首先,定义输入矩阵X和卷积核矩阵W。假设X的大小为(m, n),W的大小为(k, l)。其中,m表示输入的行数,n表示输入的列数,k表示卷积核的行数,l表示卷积核的列数。

根据宽卷积的定义,公式rot180(W)\otimes \tilde{}X可以表示为:(rot180(W)\otimes \tilde{}X)(i,j)=\sum_{p}^{}\sum_{q}^{}rot180(W)(p,q)*\tilde{}X(i-p,j-q)其中,(i, j)表示输出矩阵的坐标,p和q表示卷积核的索引。

我们将rot180(W)展开,得到:

(rot180(W)\otimes \tilde{}X)(i,j)=\sum_{p}^{}\sum_{q}^{}W(k-p+1,l-q+1)*\tilde{}X(i-p,j-q)

同样地,我们展开rot180(X)和˜W,得到:

(rot180(X)\otimes \tilde{}W(i,j))=\sum_{p}^{}\sum_{q}^{}X(m-p+1,n-j+1)*W(i-p,j-q)

观察两个公式,可以发现其中的索引变换是相同的,只是矩阵命名不同而已。因此,我们可以将公式rot180(W) ⊗ ˜X重写为:

(rot180(W) ⊗ ˜X)(i, j) = ΣpΣq W(k-p+1, l-q+1) * ˜X(i-p, j-q)

将公式rot180(X) ⊗ ˜W重写为:

(rot180(X) ⊗ ˜W)(i, j) = ΣpΣq X(m-p+1, n-q+1) * W(i-p, j-q)

对比两个公式可知,它们是完全相同的。因此,公式rot180(W) ⊗ ˜X = rot180(X) ⊗ ˜W成立,宽卷积具有交换性。

习题5-4 对于一个输入为100 × 100 × 256的特征映射组, 使用3 × 3的卷积核, 输出为100 × 100 × 256的特征映射组的卷积层, 求其时间和空间复杂度. 如果引入一个1 × 1卷积核, 先得到100 × 100 × 64的特征映射, 再进行3 × 3的卷积, 得到100 × 100 × 256的特征映射组, 求其时间和空间复杂度.

Question1:M=100,K=3,C_{in}=256,C_{out}=256

O_{time}=(M^{2}*K^{2}*C_{in}*C_{out})=100*100*3*3*256*256=5898240000

O_{space}=(M^{2}*C_{out}+K^{2}*C_{in}*C_{out})=100*100*256+3*3*256*256=3149824

Question2:M=100,K_{1}=1,K_{2}=3,C_{in1}=256,C_{out1}=64,C_{in2}=64,C_{out2}=256

O_{time}=(M^{2}*K_{1}^{2}*C_{in1}*C_{out1}+M^{2}*K_{2}^{2}*C_{in2}*C_{out2})=1638400000

O_{space}=(M^{2}*C_{out1}+M^{2}*C_{out2}+K_{1}^{2}*C_{in1}*C_{out1}+K_{2}^{2}*C_{in2}*C_{out2})=3353840

习题5-5 对于一个二维卷积, 输入为3 × 3, 卷积核大小为2 × 2, 试将卷积操作重写为仿射变换的形式. 参见公式(5.45) .

将3×3输入展开成9维的。3×3的输入,卷积核大小为2×2,一共做四次卷积操作。

 

附加题 阅读 “5.3.1 卷积神经网络的反向传播算法”,举例说明推导过程.

首先回顾一下全连接神经网络反向传播算法的误差项递推计算公式。根据第l层的误差项计算第l-1层的误差项的递推公式为:

其中W为权重矩阵,u为临时变量,f为激活函数。根据误差项计算权重梯度的公式为:

其中x为本层的输入向量。这几组公式具有普遍意义,对于卷积神经网络的全连接层依然适用。如果你对这些公式的推导还不清楚,请先去阅读我们之前的文章“反向传播算法推导-全连接神经网络”。

卷积层

首先推导卷积层的反向传播计算公式。正向传播时,卷积层实现的映射为:

我们用前面的这个例子来进行计算:

卷积输出图像的任意一个元素都与卷积核矩阵的任意一个元素都有关,因为输出图像的每一个像素值都共用了一个卷积核模板。反向传播时需要计算损失函数对卷积核以及偏置项的偏导数,和全连接网络不同的是,卷积核要作用于同一个图像的多个不同位置。

上面的描述有些抽象,下面我们用一个具体的例子来说明。假设卷积核矩阵为:

输入图像是:

卷积之后产生的输出图像是U,注意这里只进行了卷积、加偏置项操作,没有使用激活函数:

正向传播时的卷积操作为:

反向传播时需要计算损失函数对卷积核以及偏置项的偏导数,和全连接网络不同的是,卷积核要反复作用于同一个图像的多个不同位置。根据链式法则,损失函数对第l层的卷积核的偏导数为:

在这里i和j是卷积输出图像的行和列下标,这是因为输出图像的每一个元素都与卷积核的元素k_{pq}相关。首先我们看上式最右边求和项的第二个乘积项:

这是激活函数对输入值的导数,激活函数作用于每一个元素,产生同尺寸的输出图像,\frac{\partial L}{\partial x_{ij}^{(l)}}和全连接网络相同。第三个乘积项为:

假设\frac{\partial L}{\partial x_{ij}^{(l)}} 已经求出,我们根据它就可以算出 \frac{\partial l}{\partial x_{pq}^{(l)}}的值:

偏置项的偏导数更简单:

这和全连接层的计算方式类似。同样的定义误差项为:

这是损失函数对临时变量的偏导数。和全连接型不同的是这是一个矩阵:

尺寸和卷积输出图像相同,而全连接层的误差向量和该层的神经元个数相等。这样有:

这也是一个卷积操作, \delta ^{(l)}充当卷积核, x^{(l-1)} 则充当输入图像。

卷积输出图像对应的误差项矩阵 \delta为:

下面计算损失函数对卷积核各个元素的偏导数,根据链式法则有:

这是因为产生输出 u_{11}时卷积核元素 k_{11}在输入图像中对应的元素是x_{11}。产生输出 u_{12}时卷积核元素k_{11}  在输入图像中对应的元素是 x_{12}。其他的依次类推。同样的有:

其他的以此类推。从上面几个偏导数的值我们可以总结出这个规律:损失函数对卷积核的偏导数实际上就是输入图像矩阵与误差矩阵的卷积:

其中 ∗ 为卷积运算。写成矩阵形式为:

在这里conv为卷积运算,卷积输出图像的尺寸刚好和卷积核矩阵的尺寸相同。现在的问题是 \delta _{pq}^{(l)}怎么得到。如果卷积层后面是全连接层,按照全连接层的方式可以从后面的层的误差得到 \delta _{pq}^{(l)}。如果后面跟的是池化层,处理的方法在下一节中介绍。

接下来要解决的问题是怎样将误差项传播到前一层。卷积层从后一层接收到的误差为 \delta ^{(l)} ,尺寸和卷积输出图像相同,传播到前一层的误差为\delta ^{(l-1)},尺寸和卷积输入图像相同。同样的,我们用上面的例子。假设已经得到了 \delta ^{(l)} ,现在要做的是根据这个值计算出 \delta ^{(l-1)} 。根据定义:

正向传播时的卷积操作为:

根据定义:

由于:

因此有:

类似的可以得到:

从而有:

类似的有:

剩下的以此类推。从上面的过程我们可以看到,实际上是将 \delta ^{(l-1)}进行扩充(上下左右各扩充2个0)之后的矩阵和卷积核矩阵K进行顺时针180度旋转的矩阵的卷积,即:

将上面的结论推广到一般情况,我们得到误差项的递推公式为:

其中rot180表示矩阵顺时针旋转180度操作。至此根据误差项得到了卷积层的权重,偏置项的偏导数;并且把误差项通过卷积层传播到了前一层。推导卷积层反向传播算法计算公式的另外一种思路是把卷积运算转换成矩阵乘法,这种做法更容易理解,在后面将会介绍。

池化层

池化层没有权重和偏置项,因此无需对本层进行参数求导以及梯度下降更新,所要做的是将误差项传播到前一层。假设池化层的输入图像是 X^{(l-1)},输出图像为 X^{(l)},这种变换定义为:

其中down为下采样操作,在正向传播时,对输入数据进行了压缩。在反向传播时,接受的误差是 \delta ^{(l)},尺寸和 X^{(l)}相同,传递出去的误差是 \delta ^{(l-1)},尺寸和 X^{(l-1)}相同。和下采样相反,我们用上采样来计算误差项:

其中up为上采样操作。如果是对s×s的块进行的池化,在反向传播时要将 \delta ^{(l)}的一个误差项值扩展为 \delta ^{(l-1)} 的对应位置的s×s个误差项值。下面分别对均值池化和max池化进行讨论。均值池化的变换函数为:

其中 x_{i} 为池化的s×s子图像块的像素,y是池化输出像素值。假设损失函数对输出像素的偏导数为 \delta,则对输入像素的偏导数为:

因此由 \delta ^{(l)}得到 \delta ^{(l-1)}的方法为,将 \delta ^{(l)}的每一个元素都扩充为s×s个元素:

再看第二种情况。如果是max池化,在进行正向传播时,需要记住最大值的位置。在反向传播时,对于扩充的s×s块,最大值位置处的元素设为,其他位置全部置为0:

同样的,我们给出推导过程。假设池化函数为:

损失函数对 x_{i} 的偏导数为:

在这里分两种情况,如果i=t,则有:

否则有:

至此我们得到了卷积层和池化层的反向传播实现。全连接层的反向传播计算方法和全连接神经网络相同,组合起来我们就得到了整个卷积网络的反向传播算法计算公式。

将卷积转化成矩阵乘法

如果用标准的形式实现卷积,则要用循环实现,依次执行乘法和加法运算。为了加速,可以将卷积操作转化成矩阵乘法实现,以充分利用GPU的并行计算能力。

​整个过程分为以下3步:

1.将待卷积图像、卷积核转换成矩阵

2.调用通用矩阵乘法GEMM函数对两个矩阵进行乘积

3.将结果矩阵转换回图像

在反卷积的原理介绍中,我们也介绍了这种用矩阵乘法实现卷积运算的思路。在Caffe的实现中和前面的思路略有不同,不是将卷积核的元素复制多份,而是将待卷积图像的元素复制多份。

首先将输入图像每个卷积位置处的子图像按照行拼接起来转换成一个列向量。假设子图像的尺寸为s×s,和卷积核大小一样,列向量的尺寸就是s×s;如果一共有 n_{conv} 个卷积子图像,列向量的个数就是 n_{conv} ,接下来将这些列向量组合起来形成矩阵。假设有一个m×n的输入图像:

对于第一个卷积位置的s×s子图像,转换成列向量之后变为:

对于单通道图像,将所有位置的子矩阵都像这样转换成列向量,最后将 n_{conv} 个列向量组成矩阵,矩阵的行数为s×s,列数为 n_{conv}

对于多通道图像,还要将上面的这种单通道图像转换成的矩阵在垂直方向依次拼接起来。最后形成的矩阵的行数为c×s×s,其中c是图像的通道数。

接下来,将卷积核矩阵也转换成向量。具体做法是,将卷积核矩阵的所有行拼接起来形成一个行向量。每个卷积核形成一个行向量,有 n_{kernel} 个卷积核,就有n_{kernel} 个行向量。假设有一个s×s的卷积核矩阵:

转换之后变成这样的列向量:

如果卷积核有多个通道,就将这多个通道拼接起来,形成一个更大的行向量。由于卷积层有多个卷积核,因此这样的行向量有多个,将这些行向量合并在一起,形成一个矩阵:

有了上面这些矩阵,最后就将卷积操作转换成如下的矩阵乘积:

乘积结果矩阵的每一行是一个卷积结果图像。下面用一个实际的例子来说明。假设输入图像为:

卷积核为:

则输入图像的第一个卷积位置的子图像为:

转化为列向量后为:

第二个卷积位置的子图像为:

转化成列向量为:

总共有4个卷积子图像,这样整个图像转换成矩阵之后为:

卷积核转换成矩阵之后为:

读者可以验证,矩阵乘法:

即为卷积的结果。

采用这种矩阵乘法之后,反向传播求导可以很方面的通过矩阵乘法实现,和全连接神经网络类似。假设卷积输出图像为Y,即:

Y=KX

则我们可以很方便的根据损失函数对Y的梯度计算出对卷积核的梯度,根据之前的文章“反向传播算法推导-全连接神经网络”中证明过的结论,有:

而误差项传播到前一层的计算公式为:

工程实现

下面我们介绍全连接层,卷积层,池化层,激活函层,损失层的工程实现细节。核心是正向传播和反向传播的实现。

在实现时,由于激活函数对全连接层,卷积层,以后要讲述的循环神经网络的循环层都是一样的,因此为了代码复用,灵活组合,一般将激活函数单独拆分成一层来实现。

下面我们将各种层抽象成统一的实现方式。在正向传播时,每一层根据输入数据 x^{(l-1)} 计算输出数据 x^{(l)} ,本层可能还有需要训练得到的参数 w^{(l)} 。正向传播时的计算为:

其中h是本层的映射函数。

无论是哪一种层,反向传播时要做的事情是:

如果本层有需要通过训练得到的参数,根据后一层传入的误差项 \delta ^{(l)}计算本层参数的梯度值 \bigtriangledown _{w^{(l)}}L,而这个误差项是损失函数对本层输出值的梯度:

将误差传播到前一层,即根据 \delta ^{(l)}计算 \delta ^{(l-1)} 是损失函数对本层输入数据的梯度:

在之前的文章“反向传播算法推导-全连接神经网络”中已经介绍过,激活函数实现的是向量到向量的逐元素映射,对输入向量的每个分量进行激活函数变换。正向传播时接受前一层的输入,通过激活函数作用于输入数据的每个元素之后产生输出。反向传播时接受后一层传入的误差项,计算本层的误差项并把误差项传播到前一层,计算公式为:

由于激活层没有需要训练得到的参数,因此无需根据误差项计算本层的梯度值,只需要将误差传播到前一层即可。

拆出激活函数之后,全连接层的输入数据是一个向量,计算该向量与权重矩阵的乘积,如果需要还要加上偏置,最后产生输出。正向传播的计算公式为:

反向传播时计算本层权重与偏置的导数:

另外还要将误差传播到前一层:

卷积层和池化层的反向传播实现已经在前面介绍了,因此在这里不再重复。

损失层实现各种类型的损失函数,它们仅在训练阶段使用,是神经网络的最后一层,也是反向传播过程的起点。损失层的功能是在正向传播时根据传入的数据以及函数的参数计算损失函数的值,送入到求解器中使用;在反向传播时计算损失函数对输入数据的导数值,传入前一层。

反向传播算法推导-卷积神经网络 - 知乎 (zhihu.com)

习题 5-7 忽略激活函数, 分析卷积网络中卷积层的前向计算和反向传播(公式(5.39)) 是一种转置关系.

以一个3×3的卷积核为例,输入为X输出为Y
在这里插入图片描述X=\begin{pmatrix} x_1&x_2&x_3&x_4\ x_5&x_6&x_7&x_8\ x_9&x_{10}&x_{11}&x_{12}\ x_{13}&x_{14}&x_{15}&x_{16}\ \end{pmatrix}W=\begin{pmatrix} w_{00}&w_{01}&w_{02}\ w_{10}&w_{11}&w_{12}\ w_{20}&w_{21}&w_{22}\ \end{pmatrix}Y=\begin{pmatrix} y_1&y_2\ y_3&y_4\ \end{pmatrix}在这里插入图片描述

将4×4的输入特征展开为16×1的矩阵,y展开为4×1的矩阵,将卷积计算转化为矩阵相乘
在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
所以在这里插入图片描述

综上可以看出前向计算和反向传播是一种转置关系。

习题5-8 在空洞卷积中, 当卷积核大小为𝐾, 膨胀率为𝐷时, 如何设置零填充𝑃的值以使得卷积为等宽卷积 .

 

在空洞卷积中,当卷积核大小为 K,膨胀率为 D 时,要使得卷积为等宽卷积,需要设置适当的零填充 P 的值。

等宽卷积的定义是,在进行卷积操作后,输出特征图的宽度应该与输入特征图的宽度相同。

对于空洞卷积,输出特征图的宽度可以通过以下公式计算:

输出特征图的宽度 = (输入特征图的宽度 + 2P - (K - 1) * (D - 1) - 1) / S + 1

其中,S 表示卷积的步长。

要使得卷积为等宽卷积,即输出特征图的宽度与输入特征图的宽度相同,可以设置以下条件:

(输入特征图的宽度 + 2P - (K - 1) * (D - 1) - 1) / S + 1 = 输入特征图的宽度

解出上述方程中的零填充 P 的值即可。

  • 27
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值