关注公众号,发现CV技术之美
训练和推理代码以及模型权重 全部开源! 一次性检测&分割一切!一个模型一套参数在 160 种测试集上取得当前 SOTA 或极具竞争性的结果!
详细信息如下:

论文地址:https://arxiv.org/pdf/2312.02153.pdf
开源链接:https://github.com/shenyunhang/APE

介绍
近期视觉基础模型(Vision Foundation Models)方向一直在探索建立一个通用的视觉感知系统,已有的方法可以分为三类:
第一类采用自监督的训练方式,例如DINO和CLIP等,这类方法在做下游感知类任务的时候需要再训练单独的Head或者Adapter;
第二类方法是开集检测,对齐图像的局部区域和文本表达,例如GLIP、UNINEXT和GroundingDINO等,但这类方法在每次推理时只能检测非常有限数量的类别(例如lvis的1023类单词要拆分成30多次推理)或者单个句子,检测类别或者句子长度的提升会给计算量和性能带来巨大的挑战;
第三类方法是开集语义分割,例如SAM、Xdecoder和SEEM等,但这类方法在加上语义信息时面临着前景可数物体和背景不可数物体的粒度差异问题,导致性能下降,这类方法往往需要设计特定的网络结构或者训练策略来缓解前背景冲突;
针对以上问题,来自厦门大学等机构的研究人员提出一种新的模型APE,其框架如下所示:

方法
Independent Prompt
给定多个目标类别,例如Girl和Sky等,以往的方法通常直接联结这些类别名组成一个单独的Prompt:“Girl. Sky. …”,这种构造方式是期望可以建模不同类别名之间的相互关系。但我们发现这种类别名之间的相互关系不是必须的,每种类别名独立建模就可以学习不同的实例。为此,我们对每种类别名或者描述的短语都进行独立建模:[“Girl”, “Sky”, “Little child with hat on branch”, “The big chinchilla”, . . . ],并获得其独立的prompt embedding。
Sentence-Level Embeddings
为了减少计算复杂度和内存消耗,我们进一步将Word-Level Embeddings压缩成Sentence-Level Embeddings,也就是将一句话中所有Word Embeddings求平均,我们实验中发现这种Sentence-Level Embeddings足够表达语义信息。
Gated Cross-modality Interaction
GLIP等方法直接融合文本和视觉特征,在类别名很多的情况下融合的代价逐步提升。我们则针对不同的Prompt类型来进行特征融合,对于纯类别名(Vocabulary Prompt)的文本特征,我们采用一种“zero”文本token来作为它们的替代,过往经验表明直接将Vocabulary Prompt和视觉特征融合容易导致过拟合现象,使得在新类别上的表现欠佳。语言描述(Sentence Prompt)的文本特征则被融合到视觉特征中以实现语义级的理解。
Region-sentence Alignment
我们直接通过矩阵乘法计算Object Embeddings和Prompt Embeddings之间的相似度,从而实现一次性检测&分割万物。值得注意的是我们维持了一个Embedding Bank用于构建负样本。
Thing-stuff-equalizing Alignment
分割任务的前景和背景的粒度是不同的,比如背景天空即使由好几块组成,但仍然被认为是同一个标签,而前景比如人则是单独的标签。这种粒度差异会给模型训练带来挑战,为此我们提出统一前景和背景的粒度,对于不同块的背景我们将其视为独立的标签,如上图中的“天空”。这使得模型可以采用统一的架构训练前景和背景数据,也可以方便地融入SA-1B这类大规模的Class-Agnostic数据。
数据配比
我们使用了10中常见的开源数据集进行训练,包括通用检测分割数据(COCO、Objects365),长尾检测分割数据(LVIS),联邦标注的数据(OpenImages),指向性检测分割数据(VG、RefCOCO/+/g、GQA、Phrascut、Flickr30k),不带语义的分割数据(SA-1B)。我们提出一些列原则精心设计数据配比和损失权重。
实验效果
我们进行了大规模的实验以验证我们方法的有效性,APE-ABCD对应用不同的训练数据。可以看到我们的方法在160种测试集上普遍取得了当前SOTA或具有竞争性的结果,值得注意的是我们只采用了一个模型架构和一套参数,没有针对下游任务进行微调。




论文地址:https://arxiv.org/pdf/2312.02153.pdf
开源链接:https://github.com/shenyunhang/APE
END
加入「计算机视觉」交流群👇备注:CV