0. 写作目的
好记性不如烂笔头。
1. 问题
下采样导致损失了细节信息。
2. 解决方法
高层的信息和低层的信息都有用。 作者对所有的信息都使用。
3. 模型
具体细节:
2x表示使用两次 RCU。逐层进行使用refineNet,如图2中的C图所示,对于下采样32倍的feature,refineNet只有一个输入。对于其他的refineNet则有两个输入。
Chained Res Pooling: 使用的是 Maxpooling,实验中使用2次pooling,步长为1。 目的在于提取背景上下文。(感觉就是提高感受野,融合全局信息)
模型的不同扩展:
4. 实验结果
在多个实验结果上效果很好。这是实验结果都是使用multi-scale 测试的。
消融实验:
不同扩展模型的实验:
注:文中图片来源于paper。
There may be some mistakes in this blog. So, any suggestions and comments are welcome!
[Reference]
paper: https://arxiv.org/abs/1611.06612
code: https://github.com/guosheng/refinenet