NNDL 作业8 卷积 导数 反向传播

习题5-2 证明宽卷积具有交换性, 即公式(5.13).

通过对比结果可以看出这两个相等,因此宽卷积具有交换性。
 

习题5-4 对于一个输入为100 × 100 × 256的特征映射组, 使用3 × 3的卷积核, 输出为100 × 100 × 256的特征映射组的卷积层, 求其时间和空间复杂度.

如果引入一个1 × 1卷积核, 先得到100 × 100 × 64的特征映射, 再进行3 × 3的卷积, 得到100 × 100 × 256的特征映射组, 求其时间和空间复杂度.

(1)

时间复杂度:O\left ( M^{^{2}} \cdot K^{^{2}}\cdot C_{in}\cdot C_{out} \right )=5.89824*10^{9}

空间复杂度:O\left ( K^{^{2}}\cdot C_{in}\cdot C_{out} + M^{^{2}} \cdot C_{out}\right ) =3.149824*10^{6}

(2) 

时间复杂度:\left ( M^{2}*K_{1}^{2}*C_{1,in}*C_{1,out} \right )+\left ( M^{2}*K_{2}^{2}*C_{2,in}*C_{2,out}\right )=1.6384*10^{9}

时间复杂度:\left ( K_{1}^{2}*C_{1,in}*C_{1,out} \right )+\left ( K_{2}^{2}*C_{2,in}*C_{2,out}+M^{2}*C_{1,out}+M^{2}*C_{2,out}\right )=3.36384*10^{6}

习题5-5 对于一个二维卷积, 输入为3 × 3, 卷积核大小为2 × 2, 试将卷积操作重写为仿射变换的形式. 参见公式(5.45) .

     仿照输入为4 × 4, 卷积核大小为3 × 3                        W=\begin{pmatrix} w_{11} &w_{12} \\w_{21} & w_{22} \end{pmatrix}                          X=\begin{pmatrix} x_{11} &x_{12} & x_{13} \\ x_{21} &x_{22} &x_{23} \\ x_{31} & x_{32} & x_{33} \end{pmatrix}

Z=W\bigotimes X=\begin{bmatrix} w_{11} &w_{12} &0 &w_{21} &w_{22} & 0 &0 &0 &0 \\ 0 &w_{11} & w_{12} &0 &w_{21} & w_{22} & 0 & 0 & 0\\ 0&0&0 &w_{11} &w_{12} &0 &w_{21} &w_{22} &0 \\ 0 &0 &0 &0 &w_{11} &w_{12} &0 &w_{21} &w_{22} \end{bmatrix}\begin{bmatrix} x_{11}\\ x_{12}\\ x_{13}\\ x_{21}\\ x_{22}\\ x_{23}\\ x_{31}\\ x_{32}\\ x_{33} \end{bmatrix}

附加题 阅读 “5.3.1 卷积神经网络的反向传播算法”,举例说明推导过程.

已知池化层的\delta ^{l},推导上一隐藏层的\delta ^{l-1}

\delta _{k}^{l}=\bigl(\begin{smallmatrix} 2 & 8\\ 4& 6 \end{smallmatrix}\bigr)

 由于池化区域为2x2,矩阵变成

 假设我们之前在前向传播时记录的最大值位置分别是左上,右下,右上,左下,则转换后的矩阵为:

 如果是Average,则进行平均:转换后的矩阵为:

对于张量\delta ^{l-1}

 已知卷积层的\delta ^{l},推导上一隐藏层的\delta ^{l-1}

卷积层的前向传播公式:

在DNN中,我们知道\delta ^{l-1}\delta ^{l}的递推关系为:

  因此我们有:

已知卷积层的\delta ^{l},推导该层的Wb的梯度 

注意到卷积层z和W,b的关系为:
 

因此我们有:

假设我们输入a是4x4的矩阵,卷积核是3x3的矩阵,输出z是2x2的矩阵,那么反向传播的z的梯度误差δ也是2x2的矩阵。

那么根据上面的式子,我们有:

最终我们可以一共得到9个式子。整理成矩阵形式后可得:

最后可得b的梯度:

习题 5-7 忽略激活函数, 分析卷积网络中卷积层的前向计算和反向传播(公式(5.39)) 是一种转置关系.

习题5-8 在空洞卷积中, 当卷积核大小为𝐾, 膨胀率为𝐷时, 如何设置零填充𝑃的值以使得卷积为等宽卷积 .

空洞卷积也叫扩张卷积或者膨胀卷积,简单来说就是在卷积核元素之间加入一些空格(零)来扩大卷积核的过程。

常规卷积:                                                                     空洞卷积:
image

 设空洞卷积输入为H+2P,输出为H,步长为1

\left ( H+2P\right )-\left ( K+\left (K-1 \right ) *\left ( D-1 \right )\right )+1=H

P=\left ( k-1 \right )*D/2

参考链接:

NNDL 作业7:第五章课后题(1×1 卷积核 | CNN BP)_牛奶园雪梨的博客-CSDN博客

https://www.cnblogs.com/pinard/p/6494810.html

NNDL 作业8 卷积 导数 反向传播-CSDN博客

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值