来源:专知
本文约1000字,建议阅读5分钟
我们提出了 MFuser,一种基于 Mamba 的新型融合框架,可高效整合 VFMs 与 VLMs 的优势,同时在序列长度上保持线性可扩展性。
视觉基础模型(Vision Foundation Models, VFMs)和视觉语言模型(Vision-Language Models, VLMs)凭借其强大的泛化能力,近年来在领域泛化语义分割(Domain Generalized Semantic Segmentation, DGSS)任务中受到广泛关注。然而,现有的 DGSS 方法通常仅依赖 VFMs 或 VLMs 中的一种,忽视了它们之间的互补优势。以 DINOv2 为代表的 VFMs 擅长捕捉细粒度特征,而如 CLIP 等 VLMs 则在文本对齐方面表现优异,但往往难以处理粗粒度语义。
尽管 VFMs 和 VLMs 具备互补能力,但将两者有效融合仍具有挑战性,特别是在注意力机制中,因 patch tokens 数量增多而导致长序列建模难度增加。为此,我们提出了 MFuser,一种基于 Mamba 的新型融合框架,可高效整合 VFMs 与 VLMs 的优势,同时在序列长度上保持线性可扩展性。
MFuser 主要包括两个关键组件:
MVFuser:作为协同适配器(co-adapter),用于联合微调两种模型,同时捕捉序列与空间动态信息;
MTEnhancer:一种融合注意力机制与 Mamba 的混合模块,通过引入图像先验对文本嵌入进行增强。
我们的方法在实现精确特征定位的同时,也保持了强文本对齐能力,且不会引入显著的计算开销。大量实验表明,MFuser 在多个基准测试上显著优于现有的 DGSS 方法:在合成到真实(synthetic-to-real)场景中达到 68.20 mIoU,在真实到真实(real-to-real)场景中达到 71.87 mIoU。
项目代码已开源,地址为:
👉 https://github.com/devinxzhang/MFuser
关于我们
数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。
新浪微博:@数据派THU
微信视频号:数据派THU
今日头条:数据派THU