本文是LLM系列文章,针对《BLINK : Multimodal Large Language Models Can See but Not Perceive》的翻译。
摘要
我们介绍Blink,这是一种新的多模态语言模型(LLM)基准,侧重于其他评估中没有的核心视觉感知能力。大多数Blink任务都可以由人类“在眨眼之间”解决(例如,相对深度估计、视觉对应、取证检测和多视图推理)。然而,我们发现这些对感知要求很高的任务给当前的多模态LLM带来了重大挑战,因为它们抵制通过自然语言进行调解。Blink将14个经典的计算机视觉任务重新格式化为3807个选择题,并配以单个或多个图像和视觉提示。虽然人类的平均准确率为95.70%,但眨眼对现有的多模态LLM来说是一个令人惊讶的挑战:即使是表现最好的GPT-4V和Gemini也能达到51.26%和45.72%的准确率,仅比随机猜测高13.17%和7.63%,这表明这种感知能力在最近的多模态LL中还没有“出现”。我们的分析还强调,专业的CV模型可以更好地解决这些问题,为未来的改进提供了潜在的途径。我们相信Blink将激励社区帮助多模态LLM赶上人类水平的视觉感知。