GPT4RoI: Instruction Tuning Large Language Model on Region-of-Interest

本文介绍了一种新的区域级视觉语言模型GPT4RoI,通过将边界框转换为空间指令并结合大语言模型,实现了对图像中感兴趣区域的精细理解与多轮对话。该模型在预训练和端到端微调后,在识别、属性分析和文本生成等方面表现出色。
摘要由CSDN通过智能技术生成

在图像-文本对上调整大语言模型(LLM)的指令已经实现了前所未有的视觉-语言多模态能力。然而,他们的视觉语言对齐仅建立在图像级别上,缺乏区域级别对齐限制了他​​们在细粒度多模态理解方面的进步。在本文中,我们提出对感兴趣区域进行指令调整。关键设计是将边界框重新表述为空间指令的格式。将空间指令和语言嵌入提取的视觉特征的交错序列输入到LLM,并以指令调整格式对转换后的区域文本数据进行训练。我们的区域级视觉语言模型(称为 GPT4RoI)带来了超越图像级理解的全新对话和交互体验。

github:GitHub - jshilong/GPT4RoI: GPT4RoI: Instruction Tuning Large Language Model on Region-of-Interest

arxiv: https://arxiv.org/abs/2307.03601

GPT4ROI:感兴趣区域的指令微调大语言模型

背景:大规模语言模型在图像文本对上微调展现出令人惊讶的 多模态表现,然而都是在图像级别的,缺少区域级别的多模态推理

意义:细粒度的信息交互,可控、多轮对话、多种组成

相关技术:大规模语言模型、视觉语言模型、区域级别图像理解

创新点:将边界框转换为空间指令,利用大模型的识别、分析、推理能力,实现空间维度上的处理,支持区域级别的理解和多轮对话

具体内容:GPT4RoI是一个视觉大模型,支持处理包含空间信息的instructions,如<region>。在tokenization和embeddings过程中,instructions中的<region>替换为RoIAlign结果,随后所有的embeddings送入LLM处理。

数据集:COCO 、RefCOCO and RefCOCO+,RefCOCOg、Flicker30k、

训练方法:Stage 1: Pre-training、Stage 2: End-to-end Fine-tuning

效果:对感兴趣区域进行识别种类、简单属性和位置、文本生成和推理,

后续工作:模型架构进一步完善,丰富区域微调数据集,增加指令模板扩大场景覆盖

不足:交互方式单一

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值