AIGC|OpenAI文生视频大模型Sora技术拆解(含全网资料汇总)

OpenAI出手就是王炸!!2月16日,OpenAI 正式发布其首个文生视频模型 Sora,继 Runway、Pika、谷歌和 Meta 之后,OpenAI 终于加入视频生成领域的战争,无疑是对全球AI视频 Startups 的一次降维打击!

它有多震撼呢?这么说吧,上一次这么疯狂的刷屏可能还是人类第一次见到ChatGPT的时候。

可以用三个词来总结:“60s超长长度”、“单视频多角度镜头”和“世界模型”!!

官方地址:

https://openai.com/sora

技术报告:

https://openai.com/research/video-generation-models-as-world-simulators

飞书整理链接持续更新(建议收藏):

https://oizxc9sdhbc.feishu.cn/docx/CaRodopBzoYkBex70P4ck2rvnKg?from=from_copylink

何为Sora

Sora是OpenAI最新发布的其首个文生视频大模型,引起全网疯狂刷屏!其强大之处,不仅可以生成长达一分钟的视频,还实现了视频画质的跨越式提升!在可变持续时间、分辨率和纵横比的视频和图像上联合训练文本条件扩散模型。

Sora 是一种扩散模型,它从看起来像静态噪声的视频开始生成视频,然后通过多个步骤消除噪声来逐渐转换视频。Sora 能够一次生成整个视频或扩展生成的视频以使其更长。通过让模型一次看到许多帧,解决了一个具有挑战性的问题,即确保一个主题即使暂时离开视野也能保持不变。

与 GPT 模型类似,Sora 使用 transformer 架构,释放出卓越的扩展性能。将视频和图像表示为称为Patches的较小数据单元的集合,每个Patches都类似于 GPT 中的一个tokens。通过统一表示数据的方式,可以在比以前更广泛的视觉数据上训练扩散transformers,跨越不同的持续时间、分辨率和纵横比。

Sora建立在DALL·E 和 GPT 模型。它使用了 DALL·E 3,涉及为视觉训练数据生成高度描述性的标题。因此,该模型能够更忠实地遵循生成视频中用户的文本说明。

OpenAI 的真正强大在于要实现AGI,做 World Simulators(世界模拟器),帮助人们解决需要现实世界交互的问题。

效果如何

60s超长视频

完美碾压RunwayGen2和pika1.0,Sora直接把生成视频的时长拉长到了1分钟!

提示:一位时尚的女人走在东京的街道上,街道上到处都是温暖的发光霓虹灯和动画城市标志。她身穿黑色皮夹克,红色长裙,黑色靴子,背着一个黑色钱包。她戴着墨镜,涂着红色口红。她自信而随意地走路。街道潮湿而反光,营造出五颜六色的灯光的镜面效果。许多行人四处走动。

单视频多角度镜头

Prompt: A movie trailer featuring the adventures of the 30 year old space man wearing a red wool knitted motorcycle helmet, blue sky, salt

提示:电影预告片,讲述了 30 岁的太空人戴着红色羊毛针织摩托车头盔的冒险经历,蓝天,盐沙漠,电影风格,用 35 毫米胶片拍摄,色彩鲜艳。

与现实世界的物理关系

提示词中的轮胎扬起的尘土,是在汽车后面。

提示:镜头跟随一辆带有黑色车顶行李架的白色老式 SUV 在陡峭的山坡上被松树包围的陡峭土路上加速,轮胎上扬起灰尘,阳光照在 SUV 上,因为它沿着土路飞驰,为场景投下温暖的光芒。土路缓缓蜿蜒向远处,看不到其他汽车或车辆。道路两旁的树木都是红杉,到处都是绿色植物。从后方可以看到这辆车可以轻松地沿着弯道行驶,看起来好像是在崎岖的地形上崎岖不平地行驶。土路本身被陡峭的丘陵和山脉所环绕,上面是湛蓝的天空和轻薄的云彩

复杂的场景

Prompt: A Chinese Lunar New Year celebration video with Chinese Dragon.

提示:中国龙的中国农历新年庆祝视频。

精致的细节

提示:一个60多岁留着胡子的白发男子的特写镜头,他坐在巴黎的一家咖啡馆里,沉思着宇宙的历史,当人们走着的时候,他的眼睛聚焦在屏幕外的人身上,他几乎一动不动地坐着,他穿着羊毛外套西装外套和纽扣衬衫,戴着棕色贝雷帽和眼镜,看起来很有教授风范,最后,他微微一笑,仿佛找到了生命之谜的答案,灯光非常像电影,背景是金色的灯光和巴黎的街道和城市,景深,35毫米电影胶片。

同时存在缺陷,不完美的效果

目前,Sora在视频生成过程中也存在着一些缺陷,比如复杂环境中的物理效果,因果关系,空间和时间上推理上。

  • 有时会产生身体上难以置信的动作

Prompt: Step-printing scene of a person running, cinematic film shot in 35mm.

提示:一个人奔跑的步印场景,以 35 毫米拍摄的电影胶片。

  • 动物或人可以自发出现,尤其是在包含许多实体的场景中

Prompt: Five gray wolf pups frolicking and chasing each other around a remote gravel road, surrounded by grass. The pups run and leap, chasing each other, and nipping at each other, playing. 提示:五只灰狼幼崽在一条偏远的碎石路上嬉戏和追逐,周围环绕着草地。幼崽们奔跑跳跃,互相追逐,互相啃咬,玩耍。

  • 不准确的物理建模和非自然物体“变形”的例子

Prompt: Basketball through hoop then explodes.

提示:篮球穿过篮筐然后爆炸。

  • 未能将椅子建模为一个刚性物体,导致不准确的物理交互

Prompt: Archeologists discover a generic plastic chair in the desert, excavating and dusting it with great care.

提示:考古学家在沙漠中发现了一把普通的塑料椅子,正在仔细挖掘和除尘。

  • 模拟对象和多个角色之间的复杂交互对模型来说通常具有挑战性,有时会导致幽默的生成

提示:一位头发梳得整整齐齐的祖母站在木制餐桌旁的五颜六色的生日蛋糕后面,上面摆放着许多蜡烛,表情是纯粹的喜悦和幸福,她的眼睛里闪耀着幸福的光芒。她身体前倾,轻轻地吹灭蜡烛,蛋糕上有粉红色的糖霜和洒水,蜡烛不再闪烁,祖母穿着一件装饰着花卉图案的浅蓝色衬衫,可以看到坐在桌子旁的几个快乐的朋友和家人在庆祝,失焦。这个场景被精美地捕捉,电影般的,显示了祖母和餐厅的 3/4 视图。温暖的色调和柔和的灯光增强了气氛。

与其他主流视频生成模型的比较

图片来源:

https://twitter.com/i/status/1758282791547232482

Sora背后的底层技术

Sora 是一种通用的视觉数据模型,它可以生成跨越不同持续时间、纵横比和分辨率的视频和图像,最多可生成一整分钟的高清视频。总结来说:扩散模型、Transformer架构,是一种 “扩散Transformer”

OpenAI发布的技术细节中,提到以下6个方面:

1、将可视化数据转换为Patches

从大型语言模型中汲取灵感,这些模型通过对互联网规模的数据进行训练来获得通才功能。但不同于大语言模型的“Tokens”,Sora采用视觉“Patches”,一种高度可扩展且有效的表示,用于在不同类型的视频和图像上训练生成模型。

在高层次上,首先将视频压缩为低维潜在空间,然后将表示分解为时空“Patches”,从而将视频转换为“Patches”。

2、视频压缩网络

训练一个网络,可以降低视觉数据的维度。该网络将原始视频作为输入,并输出在时间和空间上都经过压缩的潜在表示。

Sora在这个压缩的潜在空间中接受训练并随后生成视频。还训练了一个相应的解码器模型,该模型将生成的潜在对象映射回像素空间。

3、时空潜在Patches

给定一个压缩的输入视频,提取一系列时空Patches,这些Patches充当transformer tokens。此方案也适用于图像,因为图像只是单帧视频。

基于Patches的表示使 Sora 能够对可变分辨率、持续时间和纵横比的视频和图像进行训练。在推理时,可以通过在适当大小的网格中排列随机初始化的Patches来控制生成的视频的大小。

4、扩展 transformers 用于视频生成

Sora 是一个扩散模型。给定输入的噪声Patches(以及文本提示等条件信息),它被训练来预测原始的“干净”Patches。重要的是,Sora是一个扩散Transformers。Transformer 在语言建模、计算机视觉和图像生成等多个领域都表现出了显著的缩放特性。

5、可变持续时间、分辨率、纵横比

采样灵活性

Sora 可以对宽屏 1920x1080p 视频、垂直 1080x1920 视频以及介于两者之间的所有视频进行采样。这使 Sora 可以直接以原始纵横比为不同设备创建内容。它还能够在以全分辨率生成之前以较小的尺寸快速制作内容原型,所有这些都使用相同的模型。

改进的取景和构图

根据经验发现,以原始纵横比对视频进行训练可以改善构图和取景。将 Sora 与模型的一个版本进行了比较,该模型将所有训练视频裁剪为正方形,这是训练生成模型时的常见做法。在方形裁剪上训练的模型(左)有时会生成视频,其中主体仅部分可见。相比之下,Sora(右)的视频改善了取景。

6、语言理解

训练文本到视频生成系统需要大量带有相应文本标题的视频。OpenAI应用DALL·E 3到视频。首先训练一个高度描述性的字幕器模型,然后使用它为训练集中的所有视频生成文本字幕。发现对高度描述性视频字幕的培训可以提高文本保真度以及视频的整体质量。

与DALL·E 3,还利用 GPT 将简短的用户提示转换为更长的详细字幕,然后发送到视频模型。这使 Sora 能够准确遵循用户提示生成高质量的视频。

可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。为了让大家少走弯路,少碰壁,这里我直接把全套AI技术和大模型入门资料、操作变现玩法都打包整理好,希望能够真正帮助到大家。

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

  • 15
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值