Video-LLaMA 论文精读

Video-LLaMA: An Instruction-tuned Audio-Visual Language Model for Video Understanding

video-LLaMA 一种用于视频理解的指令调整视听语言模型

引言

        Video-LLaMA 一个使大型语言模型(LLM)能够理解视频中的视觉和听觉的内容的多模态框架。它从冻结的预训练的视觉和音频encoder以及冻结的LLM中引导跨模态训练。

        与之前专注于静态图像的视觉LLM不同,如(MiniGPT-4/LLaVA),Video-LLaMA主要解决了两个挑战

  1. 捕捉视觉场景中的时间变化
    1. 提出一种视频QFormer,将预训练的图像编码器组装到我们的视频编码器中,并引入视频到文本生成任务来学习视频语言对应关系。
  2. 整合视听信号。
    1. 利用ImageBind,这是一种将多个模态对齐的通用嵌入模型,作为预训练的音频编码器,并在ImageBind之上引入音频Q-Former,以学习LLM模块的合理听觉查询嵌入。
    2. 为了使视觉和音频编码器的输入与LLM的嵌入空间对齐,使用大量指令调整(instruct-tuned)数据集训练Video-LLaMA。

介绍

        基于大量文本数据训练的LLM模型,表现非凡,尽管它们取得了很大成功,但大多数用户只能通过文本去与LLM进行交互。为了最大化发掘其潜力,将视觉理解能力加入LLM成为趋势。

        BLIP-2,由于其从冷冻的图像encoder与文本decoder引导视觉语言预训练而备受关注。但是难以准确理解非平稳的视觉场景,缓解视频与文本之间的模态间隙比图像和文本更具挑战性。

        本文的工作力图攻克视频转文字,并非采用外部感知模型将视觉与听觉信号转换为文本信号。而是构建一个端到端模型,可以在一个框架内处理来自多个模态的数据。

  • 使用预训练的视觉encoder来处理帧率表示
  • 引入一个用于注入时间信息的帧嵌入层与一个用于生成视觉查询token的视频Q-Former。
  • 利用预训练的音频encoder与音频Q-Former生成器来学习合理的听觉嵌入。
  • 为了使文本输出与视频保持一致,设计了多分支跨模型预训练来学习视频语言对应和音频语言对应。
    • 视觉-语言,首先在大规模的视频字幕数据集上预训练视觉相关组件,并执行视频剪辑到文本生成任务。为了增强对静态视频概念的理解,还在这个预训练阶段添加了图片说明数据。之后,在基于视频的对话数据集上继续微调这些组件,以进行视觉instruct-tuned。
    • 音频-语言,利用imagebind 作为encoder,它在将不同模态和公共嵌入空间对齐方面表现很好。而且鉴于音频文本数据有限,我们利用视觉文本数据来训练音频相关组件。这些组件的学习将imagebind提供的公共嵌入空间与LLM的嵌入空间对齐。
    • 尽管没有使用音频文本数据进行明确训练,但是Video-LLaMA在推理过程中表现出非凡的zero-shot音频理解能力。

 

        总结我们这篇论文的贡献:

  • 提出了Video-LLaMA,实现视频与文本之间的桥梁
  • 提出的多分枝跨模型预训练框架,实现视觉语言对齐和音频语言对齐,增强了LLM的视频理解能力。
  • 代码开源且有demo

总结一下我的理解:与最新的多模态文本生成思想类似,整体结构相较于BLip2增加了一个音频处理的encoder与Q-former。处理上进行多分枝跨模态框架进行对齐,然后帧部分加强处理。

方法论

模型结构

视觉分支结构

         由一个用于从视频帧中提取特征的冻结视觉encoder,一个用于将时间信息注入视频帧的位置嵌入曾,一个聚合帧表示的视频Q-Former和一个将输出视频表示映射到LLM的线性层。

        给定N个帧组成视频,Visual Encoder首先将每个帧映射到K_{f}个图像嵌入向量中,产生视频帧表示为V = [v1,v2,v3,vN],其中v_{i} \epsilon R^{K_{f}*d_{f}} 是对应于第i个帧的df维图像嵌入的集合。

        来自冻结图像编码器的帧表示 v_{i} 是在不考虑任何时间信息的条件下进行计算的,因此需要加入位置嵌入作为帧的事件表示。然后将位置编码的帧表示送入视频Q-Former以获得维度为

\widetilde{v} \epsilon R^{K_{v}*d_{v}} 的视频嵌入向量。

        添加一个线性层,将视频嵌入转化为视频Query查询,Query查询向量与LLM文本嵌入维度相同,以便输入。在前向传递过程中,连接到输入文本嵌入作为视频prompt,引导冻结的LLM生成相关文本。

        实现上:

  • 冻结visual-encoder使用blip2的组件,包括eva-clip的vit-G/14和预训练的Q-Former
  • 其余组件,位置嵌入,视频Q-Former和线性层,被随机初始化和优化。

音频分支结构

        和视觉很类似

  • 预训练的冻结音频encoder,使用imagebind
    • 对视频2s短音频片段的M个片段进行均匀采样,然后使用128梅尔频谱图仓将每个2s音频片段转换为频谱图。获得输入音频的声谱图列表后,音频encoder将其转换为向量。
  • 位置嵌入算位置
  • 音频Q-Former
  • 线性层

多分枝跨模态训练

        分别训练视觉与音频分支,第一阶段,使用大规模的视觉字幕数据集进行训练,第二阶段,使用高质量的指令跟随数据集进行微调。

视觉分支训练

  • 数据集
    • Webvid-2M,大规模短视频数据集,文本描述来源库存网站
    • CC595k,图片说明数据集,来自CC3M
  • 训练
    • 给定视频的表示,用prompt提示冻结的LLM生成对应的文本描述。
    • 效果不如人意,但是本阶段目标是利用大量数据学到尽可能多的视觉知识,为下一阶段视觉文本对齐和指令跟随作准备。
  • 微调
    • 使用高质量的instruction-data进行微调。集成了Mini-GPT4的图像细节描述数据集,LLaVA图像指令数据集和视频聊天的视频指令数据集。
    • 微调使其能力提升。

音频分支训练

  • 使用视觉文本数据训练音频语言分支
    • 由于音频文本数据很稀缺
    • imagebind具有强大的将不同模态的嵌入对齐到一个公共空间的非凡能力

相关工作

  • LLM模型
    • 我们的工作基于这些出色的LLM,并提供即插即用的插件,使他们能够理解视频中的视觉与听觉内容。
  • 多模态LLM模型(两类)
    • 使用LLM作为控制器,并使用现有的多模态模型作为工具。当接受到指令时,LLM识别用户意图并决定调用哪些工具。最后结合多模态模型的结果来生成综合响应。如chatgpt等
    • 训练基本的大规模多模态模型,关键思想为将其他模态预训练模型与文本LLM对齐,如BLIP2,visualGLM,引入Q-Former将学习到的图像查询映射到LLM的文本嵌入空间。
  • Video-LLaMA限制
    • 感知能力有限
    • 处理长视频能力有限
    • 幻觉问题,继承了冻结LLM的幻觉问题。
      • 句法和语义正确但是与现实完全脱节,基于错误假设的模型生成的输出,会导致伦理问题,道德问题。
      • 原因
        • 过拟合
        • encode和decode错误
        • 训练数据的偏差,以及训练数据缺乏多样性。
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值