最近英伟达的团队提出了一个语义分割的新的注意力模块
论文地址:https://arxiv.org/abs/2005.10821
代码地址:未开源
这算一篇比较新的关于语义分割的attention模块,在类似Cityscape等多个数据集上都取得了最好的效果,并且针对于注意力机制的引入,相对于其他的方法,大大降低了其算力开销,可惜的代码还未开源。
为了方便,在本文中我们将文章中的hierarchical mutlo-scale attention都称为层次级多尺度注意力模块
- Background
众所周知在语义分割任务中,为了能够更好的描述物体的边缘等细节,我们通常使用大尺度的输入来获取这些细节信息,而对于一些结构形态等全局信息,我们通常是基于一个小尺度的特征输入来获得。因此,为了能够更好的平衡这个问题,很多研究都引入了多尺度信息来提升网络的表达能力。
2. Motivation
然而,直接这样粗暴的引入各个尺度的信息,会导致结果的不稳定性,因为在不同的尺度下的预测结果,如果只是简单的互相结合势必会对最终结果造成影响,因此该篇英伟达的文章就提出了一个层次级多尺度注意力之际来帮助网络获得一个各个不同尺度的链接权重,从而提升网络基于多尺度机制的预测效果。