卷积系列:Deconvolution(反卷积)/Transpose Convolution(转置卷积)/Fractional convolution

本文详细介绍了卷积操作中的反卷积(Deconvolution)、转置卷积(Transpose Convolution)和分数卷积(Fractional Convolution),探讨了它们在特征图扩张中的作用。反卷积是卷积的逆过程,通过调整padding实现特征图扩大;转置卷积从矩阵相乘的角度理解,是卷积矩阵的转置,常用于反卷积操作;分数卷积则涉及步长为小数的卷积,通过插入padding实现类似反卷积的效果。这些技术在图像分割和神经网络逆过程等任务中发挥关键作用。
摘要由CSDN通过智能技术生成

在基本的网络模型中,卷积是最常见的操作,通常用来提取特征。随着卷积操作,特征图往往会逐渐变小。对于分类任务,只是对图中包含目标的一部分感兴趣,小特征图中的特征更加高级具体,适合目标分类和定位;而对于分割任务,需要对整张图像进行像素级的判别,小的特征图无法很好地对应到原图的每个像素,分割效果就会较差。因此除了卷积和池化这样会“提炼”图像的方法,也需要能够扩大特征图的“还原”图像的方法,常用的有反卷积/转置卷积和插值。

反卷积(Deconvolution),转置卷积(Transpose Convolution)和Fractional Convolution都是同样的内容。反卷积是和卷积概念相对应,转置卷积则和卷积操作中的稀疏矩阵相对应,Fractional Convolution的名称则对应于步长大于1的卷积。接下来就从这三种角度分别理解这种能扩大特征图的操作。

1. 反卷积(Deconvolution)

在这个意义上,反卷积是卷积的反向操作,也可以理解为一个卷积,只不过padding比通常的卷积要大一些。由于步长又通常为1,因此反卷积的输出反而比输入要大,实现特征图的扩张。回顾一下普通的卷积操作,输入大小为i,卷积核大小为k,步长为s,补丁为p,则输出大小o=(i+2*p-k)/s+1,如下面左图所示:i=4,k=3,p=0,s=1,o=(4+0*2-3)/1+1=2;该卷积对应的反卷积如下面右图所示,公式不变,同时步长和卷积核大小也不变(s=s',k=k'),只不过补丁变大(p'>p)&

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值