注意力机制可视化_语义分割 注意力模块(1)

本文介绍了英伟达团队在语义分割领域的最新研究,提出了一种层次级多尺度注意力模块,有效降低计算开销并提升预测效果。文章探讨了多尺度信息结合的问题,提出自动标注策略,并通过实验展示了在CityScapes和Mapillary数据集上的性能提升。
摘要由CSDN通过智能技术生成

44c3be0f40b3def73388ee4e8db8f0c3.png

最近英伟达的团队提出了一个语义分割的新的注意力模块

论文地址:https://arxiv.org/abs/2005.10821

代码地址:未开源

这算一篇比较新的关于语义分割的attention模块,在类似Cityscape等多个数据集上都取得了最好的效果,并且针对于注意力机制的引入,相对于其他的方法,大大降低了其算力开销,可惜的代码还未开源。

为了方便,在本文中我们将文章中的hierarchical mutlo-scale attention都称为层次级多尺度注意力模块

  1. Background

众所周知在语义分割任务中,为了能够更好的描述物体的边缘等细节,我们通常使用大尺度的输入来获取这些细节信息,而对于一些结构形态等全局信息,我们通常是基于一个小尺度的特征输入来获得。因此,为了能够更好的平衡这个问题,很多研究都引入了多尺度信息来提升网络的表达能力。

2. Motivation

然而,直接这样粗暴的引入各个尺度的信息,会导致结果的不稳定性,因为在不同的尺度下的预测结果,如果只是简单的互相结合势必会对最终结果造成影响,因此该篇英伟达的文章就提出了一个层次级多尺度注意力之际来帮助网络获得一个各个不同尺度的链接权重,从而提升网络基于多尺度机制的预测效果。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值