ConvTranspose2d原理,对反卷积的思考

对公式的个人理解:

 

反卷积实际上,相当于先用0插值再对插值后的图像做常规卷积操作。从上述公式中可以看出,ConvTranspose2d中的参数stride参数相当于F.upsample函数中的放缩因子scale。

代入实例以供理解:现有width=60的input,欲反卷积得到output的width=240。即:240 = (60 - 1)* stride + kernalsize - 2*padding + output_padding

方案一:令stride=4,则kernel_size=3, padding=1,output_padding=3

             这相当于先对input做插值,相邻像素之间插入(stride-1=3)个0,此时 width' = width+ (stride - 1)*(input  - 1) = 237, 将原始input迅速插值到接近output的尺寸。

             接下来对237*237的图像做stride' = 1(固定不变),kernalsize' = kernel_size = 3, padding' = kernel_size - stride' - 1 = 1的正常卷积操作,正常卷积后的尺寸仍然为237。最后一步,对卷积后的图像做边缘填充,填充宽度=output_padding=3,最后得到了大小为240的图像。

方案二:令stride=2,则根据反卷积公式计算可知:kernalsize-2*padding+output_padding应等于240-118=122,假设padding=0,kernel_size=60, output_padding=62。

这里不继续计算下去,这么写的目的是:

1:理解反卷积参数(尤其是stride)的含义

2:为了更好的理解反卷积和上采样F.interpolate的区别。反卷积第一步是相邻像素间插入0,单这一步没有F.interpolate双线性插值来的让人安心,而第二步通过卷积优化插值图像。实际测试放到神经网络进行测试发现,input、output尺寸差距为2倍关系时,用反卷积放大图像做loss会提升网络性能。input、output尺寸差距为4倍关系的结果有待补充。

youtube链接:https://www.youtube.com/watch?v=Tk5B4seA-AU&list=PLJV_el3uVTsPy9oCRY30oBPNLCo89yu49&index=26

本文转自CSDN博客(https://blog.csdn.net/qq_27261889/article/details/86304061/

为了做个笔记方便查阅。

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值