Toward Interactive Regional Understanding in Vision-Large Language Models

本文是LLM系列文章,针对《Toward Interactive Regional Understanding in Vision-Large Language Models》的翻译。

视觉大语言模型中的交互式区域理解

摘要

最近的视觉语言预训练(VLP)模型已经显示出显著的进步。然而,这些模型严重依赖于仅捕获图像的粗略和全局信息的图像-文本对,导致其区域理解能力受到限制。在这项工作中,我们介绍了RegionVLM,它配备了明确的区域建模功能,使他们能够理解用户指示的图像区域。为了实现这一点,我们设计了一个简单而创新的架构,不需要修改模型架构或目标功能。此外,我们利用了一个包含新信息来源的数据集,即本地化叙述,这在以前的VLP研究中被忽视了。我们的实验表明,我们的单广义模型不仅实现了交互式对话系统,而且在不影响其全局图像理解能力的情况下,在各种零样本区域理解任务上表现出优异的性能。

1 引言

2 相关工作

3 提出的方

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值