Learning Deconvolution Network for Semantic Segmentation

1.作者

浦项科技大学 韩国大学(长见识了) qs81

2.贡献

1.提出了multi-layer deconvolution network(由 deconvolution ,unpooling 和 Relu 组成) 个人认为这就是最主要的贡献点

3. 网络结构

其实和我之前看的SegNet差不多

在这里插入图片描述
一些比较明显的区别 没有全连接层 可能减少了下采样的次数来达到减少参数的目的。

下面重点介绍我想说的知识点

  1. Unpooling
    在这里插入图片描述
    这个不跟和SegNet 没有区别的。。。。

通常来说反卷积应该是扩大图像的面积的这里我的理解就是和保证卷积大小不变的方法一保证不变让原本的稀疏矩阵变为稠密矩阵
在我分析SegNet的文章中我们可以看到感觉这种做法好像没有太大的意义他们都把后面变为再过一遍卷积了

4.其他值得注意的细节问题

  1. two-stage train
  • 先用easy examples train
  • 再用更具挑战性的examples fine-tune
    构造第一阶段的训练样本:用ground-truth标注crop object instances ,使得物体位于裁剪的bbox的中心。通过减少物体位置和大小的变化,可以减少语义分割搜索空间,减少训练样本的数量;
    第二阶段构造挑战性样本:
    这应该是类似yolo的思想(但是看不懂
    ref:https://blog.csdn.net/wgf5845201314/article/details/64541617

和FCN结合起来获得更好的结果 (雾 那为啥SegNet删除了 我愿称之为玄学)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值