[论文阅读笔记]HIERARCHICAL MULTI-SCALE ATTENTION FOR SEMANTIC SEGMENTATION

本文提出了一种分层多尺度注意力机制,用于解决语义分割中的多尺度预测问题,减少了内存占用并提高了精度。通过在Cityscapes和Mapillary Vistas数据集上的实验,证实了该方法的有效性和优越性,特别是在处理不同大小物体的分割上。
摘要由CSDN通过智能技术生成

论文:HIERARCHICAL MULTI-SCALE ATTENTION FOR SEMANTIC SEGMENTATION

作者:Andrew Tao Karan Sapra Bryan Catanzaro

单位:Nvidia

这是一篇来自CVPR2020的论文。在本文中,作者提出一种基于attention的方法来结合多尺度预测。文章的attention机制是多层级的,使其能够减少四倍的内存占用。除了能使训练的速度更快,而且能够训练一些更大的内存图像,而且精度更高。实验在Cityscapes和 Mapillary Vistas两个数据集上进行了验证。对于Cityscapes,有很多简易标注的图像,文章利用自动标注来改善了这个问题,达到SOTA,在Cityscapes test上可达85.1% mIoU,在Mapillary val上高达61.1% mIoU。

语义分割中某些任务预测在低分辨率下得到好的结果,某些任务预测在高分辨率下得到好的结果。作者认为不同大小的物体应该使用不同分辨率的网络,大的物体应该缩小分辨率相当于扩大感受野,小的物体应该使用大分辨率,得到更多的细节。例如上图中,在0.5x scale图像对于细杆等细小物体分割效果不好,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值