【Mask2Former】Masked-attention Mask Transformer for Universal Image Segmentation

论文地址:http://arxiv.org/abs/2112.01527

代码地址:Mask2Former


 1.背景

图像分割研究的是像素的分组问题。用于对像素进行分组的不同语义导致了不同类型的分割任务,例如全景分割、实例分割和语义分割。虽然这些任务仅在语义上有所不同,但是当前的方法为每个任务开发了专门的架构。基于逐像素分类的全卷积网络(FCNs) 用于语义分割,尽管该网络已经推进了每个单独的任务,但是它们缺乏推广到其他任务的灵活性。例如,基于FCN的体系结构在实例分割方面存在困难,导致了不同体系结构的演变。因此,本文提出的Masked-attention Mask Transformer (Mask2Former)网络结构能够在不同分割任务(全景分割、实例分割、语义分割)中均具有良好的表现。

2.Mask2Former网络结构

2.1整体结构

分类分支就是将原始图像逐像素划分成N个类别标签,mask分类能够通用以解决任何分割问题,困难在于为每个分割任务找到合适的表示。元机构是一种很好的表示方式,这种网络架构主要有3部分组成,分别是:

1.backbone:用来提取低层次特征

2.pixel decoder:将从backbone传进来的低分辨率的特征逐步上采样到高分辨率特征

3.transformer decoder:对图像特征进行操作以处理object queries。最终的二进制掩码预测就是通过每像素的object queries解码得到的。

MaskFormer是这种元架构的一个成功案例,如下图所示。 2.2Transformer decoder

我们提出Transformer decoder替换了标准的解码器,其主要操作是包含了“掩膜注意力”的操作,该操作通过将所有预测mask的前景区域进行交叉注意力限制来提取局部特征,而不是关注全局特征图。为了处理小目标,我们利用高分辨率的特征提出了一个有效的多尺度策略。它以循环方式将特征金字塔中的连续特征映射送入连续的变换器解码器层。

2.3Masked attention

Masked attention是主要的创新点之一,着重讲解下。

Masked attentio在DETR transformer Decoder中的cross-attention基础上进行改进的。有研究表明,DETR类的模型收敛速度慢的部分原因是cross-attention中的全局上下文需要经过较长的训练时间才能使得注意力每次集中在目标附近,即局部上下文。本文考虑到在cross-attention中使用局部上下文能够加速模型的收敛,因此采用masked attention模块替换了原来的cross-attention模块,即每次仅使用特征图的前景区域的特征更新query。

  • 原始的cross-attention计算方式:

  •  masked attention计算方式:

 区别在于:

  masked attention比cross-attention多了M_{l-1}M_{l-1} 采用的是前一个transformer decoder层预测的mask,并使用阈值0.5进行截断得到的二值图。当某个像素的前一层被预测为背景,即M_{l-1}=0,映射后:M_{l-1}(x,y)=-\infty,即经过softmax映射后,其该像素点的注意力便会下降为0。最终,便只有前景区域的像素点特征会影响query的更新。

 2.4更换顺序

为了处理小目标,我们提出了一种利用来自像素解码器的高分辨率特征的有效方法,通过一次将多尺度特征的一个尺度反馈到一个变换器解码器层,其中金字塔多尺度特征分别为:原图的 1/32, 1/16 和 1/8。并且,我们交换了self attention和cross attention的顺序,使query特征可学习,并删除了dropout层。

3.实验结果

  • 2
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

zy_destiny

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值