目录
习题5-5 对于一个二维卷积, 输入为3 × 3, 卷积核大小为2 × 2, 试将卷积操作重写为仿射变换的形式. 参见公式(5.45) .
附加题 阅读 “5.3.1 卷积神经网络的反向传播算法”,举例说明推导过程.
习题 5-7 忽略激活函数, 分析卷积网络中卷积层的前向计算和反向传播(公式(5.39)) 是一种转置关系.
习题5-8 在空洞卷积中, 当卷积核大小为𝐾, 膨胀率为𝐷时, 如何设置零填充𝑃的值以使得卷积为等宽卷积 .
习题5-2 证明宽卷积具有交换性, 即公式(5.13).
什么是宽卷积?
一种卷积神经网络的变体,不同的是添加更多的通道数,增加模型u强特征表达能力。
当输入信息和卷积核有固定长度,宽卷积仍然具有交换性
证明公式
rot是指旋转180度。
是指宽卷积运算
对于二维图像XXRM*N和卷积核WWRm*n,对图像X进行零填充,两端各补上m-1和n-1个0,得到全填充的图像,宽卷积定义为
证明:
取二维图像X,二维卷积核W
习题5-4 对于一个输入为100 × 100 × 256的特征映射组, 使用3 × 3的卷积核, 输出为100 × 100 × 256的特征映射组的卷积层, 求其时间和空间复杂度. 如果引入一个1 × 1卷积核, 先得到100 × 100 × 64的特征映射, 再进行3 × 3的卷积, 得到100 × 100 × 256的特征映射组, 求其时间和空间复杂度.
3*3
时间复杂度:O()=100*100*3*3*256*256=5898240000
空间复杂度:O=100*100*256=2560000
1*1
=100;=1;=3;=256;=64;=64;=256
时间复杂度:O=100×100×1×1×256×64 + 100×100×3×3×64×256 = 1638400000
空间复杂度:O=100×100×64 + 100×100×256 = 3200000
习题5-5 对于一个二维卷积, 输入为3 × 3, 卷积核大小为2 × 2, 试将卷积操作重写为仿射变换的形式. 参见公式(5.45) .
什么是仿射变换?
一种二维坐标到二维坐标之间的线性变换;它保持了二维图形的“平直性”(直线经过变换后依然是直线)和“平行性”(二维图形之间相对位置保持不变,平行线依然是平行线,且直线上点的位置关系不变)。仿射变换可以写为如下形式。
=
令输入为 I,输出为 O,卷积核为 K,步长为 s,填充大小为 p,偏移量为 d。则仿射变换可以表示为:
举例
附加题 阅读 “5.3.1 卷积神经网络的反向传播算法”,举例说明推导过程.
图片转载自深度学习|卷积神经网络_深度卷积神经网络-CSDN博客
习题 5-7 忽略激活函数, 分析卷积网络中卷积层的前向计算和反向传播(公式(5.39)) 是一种转置关系.
习题5-8 在空洞卷积中, 当卷积核大小为𝐾, 膨胀率为𝐷时, 如何设置零填充𝑃的值以使得卷积为等宽卷积 .
空洞卷积,也称为膨胀卷积,是在标准的卷积核里注入空洞,以此来扩大感受野。该结构的目的是在不用pooling且计算量相当的情况下,提供更大的感受野。相比原来的正常卷积运算,空洞卷积多了一个超参数称之为膨胀率,指的是kernel的间隔数量(例如,正常的convolution是膨胀率为1)
为了使卷积为等宽卷积,我们需要通过零填充来保持输入特征图的大小。
举例:
对于空洞卷积,当卷积核大小为3,膨胀率为2时,零填充的值为:
零填充 = 3 × 2 - 2 + 1 = 5
因此,为了使卷积为等宽卷积,我们需要在输入特征图的边缘添加5个零像素。
REF:
【NNDL作业】 宽卷积具有交换性_卷积交换律公式证明_HBU_David的博客-CSDN博客
【精选】NNDL 作业7:第五章课后题(1×1 卷积核 | CNN BP)_对于一个输入为100×100×256的特征映射组,使用3×3的卷积核,输出为100×100×256-CSDN博客