【23-24 秋学期】NNDL 作业8 卷积 导数 反向传播

本文讨论了宽卷积的交换性,卷积层的时间和空间复杂度计算,包括1×1卷积对特征映射的影响。还涉及了二维卷积的仿射变换表示,以及卷积神经网络中前向传播和反向传播的关系,特别是空洞卷积中的零填充策略。
摘要由CSDN通过智能技术生成

 

习题5-2 证明宽卷积具有交换性, 即公式(5.13).

习题5-4 对于一个输入为100 × 100 × 256的特征映射组, 使用3 × 3的卷积核, 输出为100 × 100 × 256的特征映射组的卷积层, 求其时间和空间复杂度. 如果引入一个1 × 1卷积核, 先得到100 × 100 × 64的特征映射, 再进行3 × 3的卷积, 得到100 × 100 × 256的特征映射组, 求其时间和空间复杂度.

习题5-5 对于一个二维卷积, 输入为3 × 3, 卷积核大小为2 × 2, 试将卷积操作重写为仿射变换的形式. 参见公式(5.45) .

附加题 阅读 “5.3.1 卷积神经网络的反向传播算法”,举例说明推导过程.

习题 5-7 忽略激活函数, 分析卷积网络中卷积层的前向计算和反向传播(公式(5.39)) 是一种转置关系.

习题5-8 在空洞卷积中, 当卷积核大小为𝐾, 膨胀率为𝐷时, 如何设置零填充𝑃的值以使得卷积为等宽卷积 .

5-2:证明宽卷积具有交换性, 即公式(5.13).

参考老师ppt:


 

 

5-4:对于一个输入为100 × 100 × 256的特征映射组, 使用3 × 3的卷积核, 输出为100 × 100 × 256的特征映射组的卷积层, 求其时间和空间复杂度. 如果引入一个1 × 1卷积核, 先得到100 × 100 × 64的特征映射, 再进行3 × 3的卷积, 得到100 × 100 × 256的特征映射组, 求其时间和空间复杂度.

1.时间复杂度:Time~(M^{2}*K_{2}^{1}*C_{in}*C_{out})=256*100*100*256*3*3=5098240000

   空间复杂度:100*100*256=2,560,000

2.时间复杂度:Time~(M^{2}*K_{1}^{2}*C_{1,in}*C_{1,out})+(M^{2}*K_{2}^{2}*C_{2,in}*C_{2,out})=64*100*100*256+256*100*100*64*3*3=1638400000

空间复杂度:64*100*100+256*100*100=3,200,000

       从这一题可以看出,加入1*1的卷积核会大大减少计算量(时间复杂度),但是从计算结果也可以看出空间复杂度变大了,有点空间换时间的意思。

5-5:对于一个二维卷积, 输入为3 × 3, 卷积核大小为2 × 2, 试将卷积操作重写为仿射变换的形式. 参见公式(5.45) .
       首先,将3 × 3的输入矩阵表示为一个9维的向量,然后将2 × 2的卷积核表示为一个4维的向量。接下来,我们可以将卷积操作看作是一个仿射变换,即将输入向量通过一个矩阵乘法映射到输出向量。假设输入向量为 x,卷积核为 W,输出向量为 y,则卷积操作可以表示为: [ y = Wx ](W是一个特定的矩阵,它可以将输入向量 x 转换为输出向量 y)例:

5-7:忽略激活函数, 分析卷积网络中卷积层的前向计算和反向传播(公式(5.39)) 是一种转置关系.

 5-8:在空洞卷积中, 当卷积核大小为𝐾, 膨胀率为𝐷时, 如何设置零填充𝑃的值以使得卷积为等宽卷积 .

空洞卷积(Atrous Convolution)又名膨胀卷积(Dilated Convolution)。假设卷积层的输入神经元个数为 𝑀 ,卷积大小为 𝐾 ,步长为 𝑆 ,在输入两端各填补 𝑃 个 0,那么该卷积层的神输出经元数量为 :(𝑀 − 𝐾 + 2𝑃)/𝑆 + 1

根据等宽卷积:
(M - K' + 2P)/S + 1 = M,其中S= 1,
K' = K + (K-1)(D-1),
求得 :
P = (K-1)D/2

附加题 阅读 “5.3.1 卷积神经网络的反向传播算法”,举例说明推导过程.

1. 全连接层

与深度神经网络DNN的反向传播算法一致,辅助变量:

进而求得参数W,b的梯度:

2. 池化层 

设池化层的输入为a^{l},则输出为z^{l+1},则有:z_{l+1}=pool(a_{l})

则:

其中unsample指在反向传播时,把矩阵的大小还原成池化之前的大小。

3. 卷积层 

卷积层的前向传播公式:a^{l+1}=\sigma (z^{l+1})=\sigma (a^{l}*W^{l+1}*b^{l+1})

所以

当stride=1时p_{'}=k-p-1

心得体会:

       对于宽卷积具有交换性有了深刻的认识,对于1×1卷积核的作用的作用有了补充,原本来并不知道1×1卷积核具有增加模型非线性表达能力,掌握了时间复杂度和空间复杂度的计算过程,原来只知道卷积网络中卷积层的前向计算和反向传播是一种转置关系,但并不知道其原理,经过这次的作业,大致上晓得了。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值