反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)加入自己的思考(tensorflow函数)(一)

ps 之前是做分类的根本就是没有很深的接触反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)等,要写这个主要是我在找unet代码时候发现反卷积这一步正常用tf.nn.conv2d_transpose,但是有人居然用tf.image.reszie函数的邻域插值替代了,当时我整个人都不好了。后来我就花了一段时间发现了Deconvolution,UNSampling,UnPooling这三个常用的深度学习中图像放大的方法,这里具体讲下自己的理解。

三者图解比较(很好的博文:https://blog.csdn.net/A_a_ron/article/details/79181108

图(a)表示UnPooling的过程,特点是在Maxpooling的时候保留最大值的位置信息,之后在unPooling阶段使用该信息扩充Feature Map,除最大值位置以外,其余补0。与之相对的是图(b),两者的区别在于UnSampling阶段没有使用MaxPooling时的位置信息,而是直接将内容复制来扩充Feature Map。从图中即可看到两者结果的不同。图(c)为反卷积的过程,反卷积是卷积的逆过程,又称作转置卷积。最大的区别在于反卷积过程是有参数要进行学习的(类似卷积过程),理论是反卷积可以实现UnPooling和unSampling,只要卷积核的参数设置的合理。

 

 

上面是博文中的内容,说下自己理解,目前其实如果对于细节分割来说第一种方法最不错,但好像运行会慢许多。第二种其实就是我困惑中的tf.image.reszie函数的邻域插值方法,它是由于第一种方法太慢而采用的替代品。而第三种其实没有说明问题都没解释为什么返回这么大了。比较高端点解释可参考https://buptldy.github.io/2016/10/29/2016-10-29-deconv/。如果比较土味的解释可以看看我之前的博文卷积和反卷积(反卷积没找到图就土味讲了下理解,不懂可以私信我。)反卷积还可以看看这篇好文有实例:https://www.cnblogs.com/zyly/p/8991412.html

卷积中步长大于1的反卷积(还是这篇https://buptldy.github.io/2016/10/29/2016-10-29-deconv/)把步长为1和0的反卷积的图放上来,理解之后会写。

  • 2
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 9
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值