关注公众号,发现CV技术之美
本篇分享论文Mini-Monkey: Multi-Scale Adaptive Cropping for Multimodal Large Language Models,华科大提出2B最强多模态大模型- Mini-Monkey!
论文地址:https://arxiv.org/pdf/2408.02034
项目地址:https://github.com/Yuliang-Liu/Monkey
研究动机
随着自然语言处理(NLP)领域的飞速发展,大型语言模型(LLMs)已成为研究的热点。然而,现有的多模态大型语言模型在处理高分辨率图像时通常使用一个切分策略,这个切分策略会不可避免会对目标、联通区域带来割裂,导致MLLM对于微小或形状不规则的目标的辨识能力。这个现象在文档理解任务中,表现极为明显,这限制了它们对细节场景的理解能力。
如下图(b)所示,切分策略导致图片中问题的语义丢失了,把豚鼠的鼻子看成了一直猴子。Mini-Monkey正是为了解决这一问题而生。
Mini-Monkey不仅在2B参数规模的MLLM中取得了SOTA性能,更在OCRBench基准测试中以802分的成绩,超越了8B参数的现有最先进模型InternVL2-8B。
方法
Mini-Monkey提出了两个重要创新:多尺度自适应裁剪策略(MSAC)和尺度压缩机制(SCM)
MSAC策略允许Mini-Monkey在不同尺度上捕捉图像特征,有效避免了因裁剪导致的信息丢失。
SCM的应用不仅减轻了计算负担,更通过智能压缩,确保了模型在处理大量视觉数据时的高效性。
多尺度自适应裁剪策略(MSAC)
MSAC通过预设的一组网格,根据网格的宽高比和分辨率执行分层操作。
每个分层层选择不同的宽高比,确保文本不会在不同图像中被分割。
详细层(Detailed layer,)负责提供详细的信息,限制子图像的最大和最小尺寸,以确保图像中的对象尽可能清晰。
适应层(Adaptive layer)与详细层协同工作,确保裁剪线在详细层和适应层之间不重叠,以提供不同尺度的非分割对象特征。
全局层(Global layer)负责提供全局的图片信息。
不同层之间协同工作相互促进,提高了图片信息的利用效率
尺度压缩机制(SCM)
SCM主要对详细层的视觉Tokens进行压缩,因为这些标记通常具有较低的信息密度。而适应层和全局层的Tokens则提供给LLM完整的空间信息,使得在降低计算量的同时,能提供较多的信息量给LLM,进而实现了比较高的性能。
SCM利用大型语言模型(LLM)中的注意力层来确定哪些视觉标记是重要的。通过这种方式,它能够识别出信息密度较高的标记,并将它们保留,同时过滤掉那些相对不那么重要的标记。
SCM是一个无需训练的模块,这意味着它不会引入额外的训练成本。它直接利用已经训练好的LLM的注意力层来工作。
与FastV对比:SCM:通过注意力机制压缩具有低信息密度的标记,保留自适应层和全局层的视觉标记,为LLM提供了完整的空间信息。FastV:压缩策略可能包括随机选择或基于其他启发式的方法来减少标记数量。在论文的消融研究中,SCM在50%压缩和90%压缩的条件下,分别比FastV的性能高出21.5%和4.4%,这表明SCM在压缩效率和保持模型性能方面更为有效。
试验结果
Mini-Monkey在11个通用多模态理解基准测试中超越了其他2B参数模型,并在多个与文本相关的基准测试中取得了优异的成绩。
消融实验
可以看到Mini-Monkey同时在通用多模态理解和文档理解任务上都有一致的提升。并且提出的MSAC在不同的结构上都能有明显的提升。
定性结果
论文还提供了一些定性结果,如图(d)的例子,展示了Mini-Monkey如何克服“锯齿效应”,准确地识别和理解图像中的文字信息。
图(b)说明了有重叠的切分的并不能很好的解决“锯齿效应”。
图(c)说明了“锯齿效应”在较小的模型更明显。
可视化对比
结语
Mini-Monkey提出了一种克服“锯齿效应”的方法多尺度自适应裁剪策略(MSAC),并且在不同架构的多模态大模型下都验证了它的有效性。
并且针对MSAC引入的计算量,作者还进一步设计了一种不用训练的SCM进一步压缩视觉Tokens减少计算量,配合着MSAC使用。
以后再也不用担心切片引起的“锯齿效应”,MSAC让大家以后可以放心的使用切片来提升多模态大模型的输入分辨率!
参考文献
[1] Chen Z, Wang W, Tian H, et al. How far are we to gpt-4v? closing the gap to commercial multimodal models with open-source suites[J]. arXiv preprint arXiv:2404.16821, 2024.
[4] Bai J, Bai S, Yang S, et al. Qwen-vl: A frontier large vision-language model with versatile abilities[J]. arXiv preprint arXiv:2308.12966, 2023.
[5] Dubey A, Jauhri A, Pandey A, et al. The Llama 3 Herd of Models[J]. arXiv preprint arXiv:2407.21783, 2024.
最新 AI 进展报道
请联系:amos@52cv.net

END
加入「计算机视觉」交流群👇备注:CV


被折叠的 条评论
为什么被折叠?



