深度学习中的卷积与反卷积

本文探讨了卷积神经网络中的卷积和反卷积操作,解释了它们如何保持高维数据的空间位置信息并降低计算复杂度。卷积层的输出尺寸与卷积核参数有关,反卷积则是卷积的逆运算,两者在前向传播和反向传播中互换角色。还介绍了Fractionally Strided Convolution,即小数步长的卷积与反卷积的关系。
摘要由CSDN通过智能技术生成

普通的神经网络(全连接网络):只能处理向量,因而需要把常见的把图像、音频等高维输入数据展开成向量才能输入给神经网络,这大大破坏了数据在空间上的位置信息。

卷积和反卷积:使得神经网络能够处理二维以上的数据,因而能够保持数据在空间上的位置信息。另外,权重共享使得网络参数大大减少,从而降低了计算复杂度。

卷积

首先假设对于卷积,已知:
input size i1=i2=i
kernel size k1=k2=k
stride s1=s2=s
padding size p1=p2=p

首先来看两个例子:
1) (i=5,k=3,s=1,p=1) -> (o1=o2=o=3)
这里写图片描述

2) (i=7,k=3,s=2,p=1) -> (o1=o2=o=3)
这里写图片描述

卷积层输入特征与输出特征尺寸与卷积核参数的关系为:

o=i+2pks+1

卷积与矩阵乘法的关系

考虑如下一个卷积运算。 (i=4,k=3,s=1,p=0) -> (o=2)
这里写图片描述
对于上述卷积运算,我们把上图所示的3×3卷积核展成一个如下所示的[4,16]的稀疏矩阵 C, 其中非0元素 wi,j 表示卷积核的第i行和第j列:
C=

w0,0000w
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值