视频上下文学习!大模型学会“照猫画虎”生成,结合模拟器还能精准控制真实环境交互,来自MSRA

视频生成也能参考“上下文”?!

MSRA提出视频上下文学习(Video In-Context Learning, Vid-ICL),让大模型学会“照猫画虎”式模仿生成

Vid-ICL通过一段示例视频来指导模型在新场景下的生成,使得生成结果可以在新场景下“模仿”示例视频中完成的任务。

比如,示例视频镜头视角向下移动(左),生成视频同样视角向下移动(右):

图片

示例视频物体向上移动(左),生成视频同样向上移动(右):

图片

物体抓取也能模仿:

图片
左:示例视频,机械臂抓取物体;右:生成视频

打开抽屉也可以按示例进行:

图片
左:示例视频,打开中间的抽屉;右:生成视频

在相同的电风扇场景下,用不同示例视频指导模型生成效果belike:

*图片*
左:示例视频,镜头左移;右:生成视频
图片
左:示例视频,镜头右移;右:生成视频

要知道,在一个理想的世界模型中,模型与外界环境的交互应当是多样的。而大部分现有工作都聚焦在用文本作为主要的交互方式,这使得对生成结果细节和多样性的控制变得困难。

视频是高度具象且通用的,能够传递广泛的信息如完成各种任务的示例,包括移动或抓取对象等。

研究团队提出的Vid-ICL方法提供了语言和图像之外的一个新的接口,使模型与现实世界的交互变得更为多样。

图片

除了上面展示的生成视频之外,Vid-ICL也可以与模拟器结合,用生成视频和当前状态来预测与环境正确交互的相应动作,从而实现与真实环境的交互

下图中展示了Vid-ICL与真实环境交互,从t=0时的状态开始,与RoboDesk模拟器交互完成“Push_red”任务。Vid-ICL对环境交互提供了更精确的控制:

图片

好家伙,电影《铁甲钢拳》照进现实了。

Vid-ICL究竟是如何做到的?

Vid-ICL框架解读

Vid-ICL以视频为基本单元进行运作。

具体而言,给定一个查询视频片段和k个示例视频片段,Vid-ICL的目标是生成一个视频片段,该视频片段应首先保持与查询视频片段在感知上的连贯性同****时在语义(如镜头移动、动作)上与示例视频一致

图片

  • 自回归模型训练

Vid-ICL采用Transformer作为模型结构。

Transformer作为文本大模型的基座架构,在语言的上下文推理、生成任务上展现了强大的能力。视觉信息的生成式Transformer训练包括两个阶段:

第一,训练视觉编码器,如 VQ-VAE,将每个图像转换为离散Token;

第二,每个训练样本被构建为Token序列,Transformer解码器的目标是恢复该Token序列。

具体实现上,Vid-ICL采用Llama架构,利用RMSNorm归一化旋转位置嵌入(RoPE),以自回归方式训练 Transformer解码器。在训练阶段,每个序列是从一个原始视频中采样的,没有拼接来自不同视频的视频片段。

  • 零样本能力

研究团队在本文中提到一个关键的观察:

模型可以从没有显式上下文形式的视频数据,即连续视频片段中自发地学习出上下文推理能力,即对于Video In-context Learning的“零样本能力”。

这可以归因于两个关键因素。首先,每个视频帧之间没有插入特殊的分隔符,这允许模型在训练期间,将连续的视频序列隐式地视为示例视频+查询视频的格式。这意味着模型已经学会了处理类似示例-查询结构的序列。

其次,Transformer的自回归特性使其能够将单一场景的视频序列预测能力拓展到示例和query来自不同视频的场景,将文本上下文学习的范式无缝地泛化到视频上下文学习上。

  • 融合其他模态

虽然Vid-ICL主要关注视频作为示例,但是可以扩展到其他模态如文本上。

为此,只需通过预训练的语言模型将原始文本描述转换为潜在表示,然后在训练Transformer以及进行上下文推理时将该潜在表示作为前缀,通过投影层对齐到Transformer的隐空间内。

实验表明,Vid-ICL可以同时接收文本和视频作为示例,并且加入文本可以进一步增强生成结果的质量。

  • 数据与模型大小

可以看到,Vid-ICL可以学习到示例视频中包含的语义信息,并迁移到新的场景上进行生成,这要求训练数据中主要包含的是因果关系清晰、交互性强的视频。

因此,研究人员选择了两个数据集作为主要训练数据源: Ego4d和Kinetics-600。

此外,为了增加视频内容的多样性,一小部分Webvid中的数据也加入到训练集中。

团队还验证了受限于互联网视频中包含的语义信息较为模糊和发散,简单地通过添加更多的互联网视频来增加数据规模并不能帮助提高模型的上下文性能

模型大小上,团队训练了300M,700M和1.1B三种大小的模型,并且发现模型生成视频的质量和上下文性能都遵循了Scaling Law。

实验结果

Vid-ICL主要通过对一条相同的查询视频提供不同语义的示例视频,来评估视频上下文学习的有效性和精确性。

例如,对一个将物体向左移的查询视频,通过给向左移、随机移动、向相反方向移动的示例视频来生成不同的视频,对该生成结果的评测来判断模型是否真的生成了示例相关的视频。

定性结果方面,下图中给出了不同示例视频下的生成视频(更多样例可参照论文原文)。

可以观察到:

1)对于单个视频生成的质量,Vid-ICL保持了生成视频与查询视频的连贯性,且都有不错的生成质量;

2)对于生成视频和示例视频的语义一致性,可以观察到生成的视频都跟随了示例视频的过程,这表明Vid-ICL有自发获取示例视频语义信息并生成相应视频的能力。

如下图中,对同一个查询视频片段,Vid-ICL根据示例视频中镜头的移动,选择对生成视频进行相应的移动。

图片

定量结果方面,研究团队提出了两个方面的自动评测指标:

1)视频质量上,采用传统视觉任务上基于像素匹配或分布的指标,如PSNR,FID等;

2)语义一致性上,采用基于分类准确率的两个指标:视频分类准确率和探针分类准确率。

在不同的指标上,Vid-ICL均表现出了超出基准模型的效果。可以看出,在同类示例视频的引导下,Vid-ICL均生成了更加真实、语义一致的视频。

图片

更多细节请参考原论文。

项目主页:https://aka.ms/vid-icl
论文链接:https://arxiv.org/abs/2407.07356

如何学习大模型

现在社会上大模型越来越普及了,已经有很多人都想往这里面扎,但是却找不到适合的方法去学习。

作为一名资深码农,初入大模型时也吃了很多亏,踩了无数坑。现在我想把我的经验和知识分享给你们,帮助你们学习AI大模型,能够解决你们学习中的困难。

我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。

一、AGI大模型系统学习路线

很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。

在这里插入图片描述

二、AI大模型视频教程

在这里插入图片描述

三、AI大模型各大学习书籍

在这里插入图片描述

四、AI大模型各大场景实战案例

在这里插入图片描述

五、结束语

学习AI大模型是当前科技发展的趋势,它不仅能够为我们提供更多的机会和挑战,还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型,我们可以深入了解深度学习、神经网络等核心概念,并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时,掌握AI大模型还能够为我们的职业发展增添竞争力,成为未来技术领域的领导者。

再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。

因此,学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值