大模型下的视频理解video understanding

数据集

Learning Video Context as Interleaved Multimodal Sequences

Motivation:
针对Narrative videos, like movie clips, TV series, etc.:因为比较复杂
most top-performing video perception models 都是研究那种原子动作or人or物
understanding video contexts 有很多任务,解决这些任务的模型都太 specific了,不够general
++++=====>
can we develop a general solution that handles these diverse contexts and needs in videos?

Our work
虽然有类似的模型但是when applied to narrative videos, which encompass informative contexts , these models with a pre-defined visual-textual template still exhibit limitations due to inflexibility。基于此做了如下贡献:

  1. 提了一个新的多模态模型来解决这类视频,由于有复杂的结构,核心是要将embed the videos as
    interleaved multi-modal sequences
  2. 想要统一多模态context和任务以一种用户友好的方式
  3. 收集了指令微调数据集(用了一系列方法a package of solutions来转换现有的数据集)而且是interleaved multimodal instruction-following。用这个数据集训练了一个deconder-only的模型
  4. 除此之外,这个模型的应用是,可以让用户以一种更free-form的形式与视频交互

Model
模型总体来说不难,frame也只是一个token,作者希望通过这样方式更好的编码交错多模态信息来帮助回答问题
model
DATA
建立了几个模板主要关注how to collect the corresponding tuning data for each type of interleaved prompt
实验
实验部分的话,任务很多,都是video 理解中最火的任务,基本都是sota了。一开始提了几个有意义的问题,并进行了深入思考。除此之外容易混淆的setting用了一些小标志代替,显得更清楚。

  1. multi-task learning enhances individual capabilities.
    This highlights the language model’s ability to acquire commonsense across
    diverse objectives and contexts.
  2. different kinds of interleaved multimodal instruction.
    在这里插入图片描述
  • 8
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值