GPT-4V惨败!CV大神谢赛宁新作:V*重磅「视觉搜索」算法让LLM理解力逼近人类

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【CV技术和求职】交流群

扫码加入CVer学术星球可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,以及最前沿项目和应用!发论文搞科研,强烈推荐!

2a484092c66fcdfa66d08d813a192a9a.jpeg

转载自:新智元 | 编辑:桃子

【导读】多模态大模型GPT-4V也会「有眼无珠」。UC San Diego纽约大学研究人员提出全新V*视觉搜索算法逆转LLM弱视觉宿命。

Sam Altman最近在世界经济论坛上发言,称达到人类级别的AI很快就会降临。

但是,正如LeCun一直以来所言,如今的AI连猫狗都不如。现在看来的确如此。

60ab0811e5de66640f43402c93bd0d30.png

GPT-4V、LLaVA等多模态模型图像理解力足以让人惊叹。但是,它们并非真的能够做的面面俱到。

CV大神谢赛宁称有一个问题让自己彻夜难眠——

不论分辨率或场景复杂程度如何,冻结的视觉编码器通常只能「提取一次」全局图像token。

举个栗子,一张杂乱的桌面上放了一个「星巴克」陶瓷杯,而且logo图案仅漏出一半的情况下。

e23d471f19f223d96e560c62611f05ec.png

对此,GPT-4V却无法正确识别出来,还产生了幻觉。

87b01c2f6a464636515c5f721a1effcf.png

再比如,图片中小孩的鞋子是什么颜色这样直观的问题。

d2fd3183c2f7d0b76741b0f9d944c761.png

GPT-4V给出了「白色」的答案。

0f21b190cf112fedbc4c64cb654dc4d6.png

为了解决这个LLM图像理解的隐疾,「视觉搜索」这一关键方法能够为大模型提供视觉信息。

对此,来自UC San Diego和纽约大学的研究人员提出了V*——引导视觉搜索作为多模态LLM的核心机制。

761d865a99f1f40478611f2b5a3ea711.png

论文地址:https://arxiv.org/pdf/2312.14135.pdf

具体来说,研究人员将VQA LLM与视觉搜索模型相结合。

借助大模型的世界知识,V*对视觉目标进行多轮引导搜索。它能够提取局部特征,并将其添加到工作记忆中,然后,VQA LLM利用搜索到的数据生成最终反应。

c5196918f56b813bb7b73c5d11806b8a.png

有网友表示, V*模型和论文,在我看来意义重大。

就比如,GPT-4V无法解决的「谷歌机器人验证」,V*就可以直接找到遗漏的最后一个交通灯。

ca0c90446b6cfb9c937bc17a04290ec1.png

67f9d1ef6eda018991cf5d45211a8538.png

a8a28f5f65165e4ce4f3942dd5cb541b.png

「视觉搜索」神助攻


实现「人类智能」的标志之一,便是能够处理和整合多感官信息,从而完成复杂的任务。

在我们涉及视觉信息的认知推理过程中,「视觉搜索」无处不在,即在杂乱的桌子上寻找钥匙,或在人群中寻找朋友。

此外,对于需要多个推理步骤的复杂任务来说,「视觉搜索」也是一个不可或缺的步骤。

受人类能力的启发,研究人员提出了SEAL(Show、SEArch和TelL),这是一种通用元架构,用于将LLM引导的视觉搜索机制集成到MLLM中,以解决模型的视觉限制。

58bba66fb79cd0840bd93b1d91ac1a0d.png

再如上,GPT-4V识图失败的栗子,SEAL便可轻松完成。

一堆毛绒玩具中,一个猩猩抱着什么乐器?

GPT-4V:萨克斯

SEAL:吉他

4be469ee6e6430d27f4ca46bbadf46ac.png

繁华的都市中,一位男子手中提了一打矿泉水的瓶子是什么logo?

GPT-4V:看不清

SEAL:依云

4be1d7c43ca8d21ddbaa3a24090cbedc.png

还有行李箱上的小挂件是哪家公司的?

GPT-4V:Rubbermaid Commercial

SEAL:英特尔

dbf9696ac4c07ccee4a743346c03a583.png

在一个更直观的中,篮球运动员的球衣数字是几号?

GPT-4V:10

SEAL:8

fe21dbe33e9dcb892529bfb3b19c1bae.png

类似的例子还是有很多,看得出不论是简单的,还是复杂的视图中,GPT-4V全军覆没。

那么,SEAL框架是由何构成的?

SEAL框架+V*视觉搜索算


具体来说,SEAL框架由「VQA LLM」和「视觉搜索模型」两部分组成。

典型的MLLM模型可能会由于视觉编码器的信息不足,而拒绝回答或瞎猜(即幻觉)。

与之不同,SEAL中的VQA LLM可以明确地查明缺失的视觉细节,从而为以下对象创建目标对象重点。

然后,利用丰富的世界知识和语言模型的常识,视觉搜索组件定位这些已识别的元素,并将它们添加到视觉工作记忆(VWM)中。

VWM中的这些附加视觉数据,使VQA语言模型能够提供更准确、更明智的响应。

d90f709f5a18cc8f83e7a246c53d7081.png

左侧部分代表VQA LLM,它利用视觉工作记忆中的所有数据来回答问题。右侧展示了V*视觉搜索算法流程

值得一提的是,SEAL的适应性使其能够与各种MLLM基础模型配合使用。

在论文的例子中,研究人员使用LLaVA作为视觉搜索模型中的VQA LLM和MLLM。

借助这种新的视觉搜索功能,MLLM能够更好地处理,在高分辨率图像中进行准确视觉基础的情况。

人类的视觉搜索过程受自上而下的特征引导和上下文场景引导,因此作者设计了一种名为V*引导视觉搜索算法,其视觉搜索模型也遵循类似的原则。

对于人类来说,这种引导主要来自于他们对物理世界的知识和经验。

因此,这一视觉搜索模型是建立在另一个MLLM的基础上的,它涵盖了关于世界的大量常识性知识,并能根据这些知识有效推理出目标在场景中的可能位置。

实验评估


现有的MLLM基准主要侧重于,提供跨各种任务类别的综合评估,并且没有充分挑战上述当前范式的具体局限性。

为了弥补这一差距并评估全新框架,作者引入了V–Bench,这是一种新的专用VQA基准,专注于高分辨率图像的视觉基础。

V-Bench是一个以视觉为中心的基准测试,要求多模态模型准确地提供特定的视觉信息,而这些信息很容易被缺乏视觉搜索功能的标准静态视觉编码器所忽视。

在图像和视频等丰富而复杂的视觉内容日益占据主导地位的世界中,MLLM能够积极关注关键视觉信息以完成复杂的推理任务至关重要。

该基准旨在强调这一基本机制的重要性,并指导MLLM的进化,以反映人类认知固有的多模态处理和推理能力。

38efc31cfe1d35ad936812758294eff6.png

如下是,V–Bench上不同搜索策略的评估结果。

9f5b20c15e3c425d7facd380f20d123c.png

在具体消融实验中,使用了V*算法的Vicuna-7B的模型表现更优。

668417208fa82b0c164a987f1db97844.png

最后,视觉搜索几十年来一直是cogsci/视觉科学的核心问题。有趣的是,与人眼注视相比,LLM引导V*可以达到与人类视觉搜索相当的效率!

a0b8946ddfb25d7db3d85e3f80f12608.png

LLM引导视觉搜索的过程如下。

fc3da781d3ef39441f5de7c6b0c3cce4.png

作者介绍


Penghao Wu

Penghao Wu目前是加州大学圣迭戈分校计算机科学专业的硕士研究生。他于2018年在上海交通大学获得电气与计算机工程学士学位。从2023年6月开始,他便成为纽约大学研究实习生,导师是谢赛宁。

Saining Xie(谢赛宁)

谢赛宁目前是纽约大学计算机科学助理教授。据个人主页介绍,他本科毕业于上海交通大学,18年获加州大学圣迭戈分校CS博士学位。

毕业后,便在Facebook AI Research(FAIR)担任研究科学家。

他还曾与何恺明大神共同提出了用于图像分类的简单、高度模块化的网络结构ResNeXt,这篇论文发表在了CVPR 2017上。

43070a8d1fe29a4727ba5ca5f44aa10a.png

参考资料:

https://arxiv.org/abs/2312.14135

点击进入—>【CV技术和求职】交流群

计算机视觉技术交流群成立

 
 
扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-计算机视觉微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer444,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值