- 基础层经过预训练的模型(ResNet101)和空洞卷积策略提取feature map,提取后的feature map是输入的1/8大小
- feature map经过Pyramid Pooling Module得到融合的带有整体信息的feature,在上采样与池化前的feature map相concat
- 最后过一个卷积层得到最终输出
论文用了一个很“玄学”的方法搞了一个基础网络层,如下图:
在ResNet101的基础上做了改进,除了使用后面的softmax分类做loss,额外的在第四阶段添加了一个辅助的loss,两个loss一起传播,使用不同的权重,共同优化参数。后续的实验证明这样做有利于快速收敛。
实验都是以ResNet50-Baseline为基准,最后以α=0.4α=0.4为最佳。
很抱歉好长时间没有登陆账号,请关注公共号,共同学习AI算法知识或与我进行沟通