NNDL 作业8 卷积 导数 反向传播

目录

习题5-2 证明宽卷积具有交换性, 即公式(5.13).

习题5-4 对于一个输入为100 × 100 × 256的特征映射组, 使用3 × 3的卷积核, 输出为100 × 100 × 256的特征映射组的卷积层, 求其时间和空间复杂度. 如果引入一个1 × 1卷积核, 先得到100 × 100 × 64的特征映射, 再进行3 × 3的卷积, 得到100 × 100 × 256的特征映射组, 求其时间和空间复杂度.

习题5-5 对于一个二维卷积, 输入为3 × 3, 卷积核大小为2 × 2, 试将卷积操作重写为仿射变换的形式. 参见公式(5.45) .

附加题 阅读 “5.3.1 卷积神经网络的反向传播算法”,举例说明推导过程.

习题 5-7 忽略激活函数, 分析卷积网络中卷积层的前向计算和反向传播(公式(5.39)) 是一种转置关系.

习题5-8 在空洞卷积中, 当卷积核大小为𝐾, 膨胀率为𝐷时, 如何设置零填充𝑃的值以使得卷积为等宽卷积 .


习题5-2 证明宽卷积具有交换性, 即公式(5.13).

什么是宽卷积?

一种卷积神经网络的变体,不同的是添加更多的通道数,增加模型u强特征表达能力。

当输入信息和卷积核有固定长度,宽卷积仍然具有交换性

证明公式rot180(W)\widetilde{\otimes } X=rot180(X)\widetilde{\otimes }W

rot是指旋转180度。

\widetilde{\otimes }是指宽卷积运算

对于二维图像X\epsilonR^{M*N}X\epsilonRM*N和卷积核W\epsilonR^{m*n}W\epsilonRm*n,对图像X进行零填充,两端各补上m-1和n-1个0,得到全填充的图像,宽卷积定义为W\widetilde{\otimes }X=X\widetilde{\otimes }W W\otimes \widetilde{X}=X\otimes \widetilde{W}

证明:

取二维图像X\epsilon R^{M*N},二维卷积核W\epsilonR^{m*n}

习题5-4 对于一个输入为100 × 100 × 256的特征映射组, 使用3 × 3的卷积核, 输出为100 × 100 × 256的特征映射组的卷积层, 求其时间和空间复杂度. 如果引入一个1 × 1卷积核, 先得到100 × 100 × 64的特征映射, 再进行3 × 3的卷积, 得到100 × 100 × 256的特征映射组, 求其时间和空间复杂度.

3*3

时间复杂度:O(M^{2}*K^{2}*C_{in}*C_{out})=100*100*3*3*256*256=5898240000

空间复杂度:O=100*100*256=2560000

1*1

\small M=100;\small K_{1}=1;\small K_{2}=3;\small C_{in1}=256;\small C_{out1}=64;\small C_{in2}=64;\small C_{out2}=256

时间复杂度:O=100×100×1×1×256×64 + 100×100×3×3×64×256 = 1638400000

空间复杂度:O=100×100×64 + 100×100×256 = 3200000

习题5-5 对于一个二维卷积, 输入为3 × 3, 卷积核大小为2 × 2, 试将卷积操作重写为仿射变换的形式. 参见公式(5.45) .

什么是仿射变换?

一种二维坐标到二维坐标之间的线性变换;它保持了二维图形的“平直性”(直线经过变换后依然是直线)和“平行性”(二维图形之间相对位置保持不变,平行线依然是平行线,且直线上点的位置关系不变)。仿射变换可以写为如下形式。

A=\begin{bmatrix} a_{00} &a_{01} \\ a_{10} & a_{11} \end{bmatrix}     B=\begin{bmatrix} b_{00}\\ b_{10} \end{bmatrix}  M=\begin{bmatrix} A & B \end{bmatrix}=\begin{bmatrix} a_{00} &a_{01} &b_{00} \\ a_{10} & a_{11} & b_{10} \end{bmatrix}

令输入为 I,输出为 O,卷积核为 K,步长为 s,填充大小为 p,偏移量为 d。则仿射变换可以表示为:

O_{i,j}=\sum_{m=0}^{1}\sum_{n=0}^{1}K_{m,n}I_{i+ms+d,j+ns+d}

举例

附加题 阅读 “5.3.1 卷积神经网络的反向传播算法”,举例说明推导过程.

图片转载自深度学习|卷积神经网络_深度卷积神经网络-CSDN博客

 

习题 5-7 忽略激活函数, 分析卷积网络中卷积层的前向计算和反向传播(公式(5.39)) 是一种转置关系.

习题5-8 在空洞卷积中, 当卷积核大小为𝐾, 膨胀率为𝐷时, 如何设置零填充𝑃的值以使得卷积为等宽卷积 .

空洞卷积,也称为膨胀卷积,是在标准的卷积核里注入空洞,以此来扩大感受野。该结构的目的是在不用pooling且计算量相当的情况下,提供更大的感受野。相比原来的正常卷积运算,空洞卷积多了一个超参数称之为膨胀率,指的是kernel的间隔数量(例如,正常的convolution是膨胀率为1)

为了使卷积为等宽卷积,我们需要通过零填充来保持输入特征图的大小。

举例:

对于空洞卷积,当卷积核大小为3,膨胀率为2时,零填充的值为:
零填充 = 3 × 2 - 2 + 1 = 5
因此,为了使卷积为等宽卷积,我们需要在输入特征图的边缘添加5个零像素。


REF:

【NNDL作业】 宽卷积具有交换性_卷积交换律公式证明_HBU_David的博客-CSDN博客

【精选】NNDL 作业7:第五章课后题(1×1 卷积核 | CNN BP)_对于一个输入为100×100×256的特征映射组,使用3×3的卷积核,输出为100×100×256-CSDN博客

关于仿射变换矩阵的一点理解-CSDN博客 

深度学习|卷积神经网络_深度卷积神经网络-CSDN博客 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值