Sora训练数据疑暴露,网友:绝对用了UE5

Sora视频展示了令人惊叹的新视角和功能,引发网友对虚幻引擎技术使用的猜测。AI生成视频的质量提升引发关于数据训练来源和3D引擎/AIGC结合的深入讨论,预示着未来生成技术可能转向模拟物理模型而非真实物理世界。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

白交 衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

好消息,好消息,真·Sora视频上新了!走过路过不要错过!

(不用苦苦等候,或撑大眼睛费劲吧啦鉴别真假Sora产品了)。

ef22b0048d64eaa6aaa785cc94e92de1.gif

就在过去短短几个小时里,包括Bill Peebles、Tim Brooks两位负责人在内的工作人员唰唰唰N连发。

25d77554febfa6b2670d67c51e88c964.gif

(好了好了,知道你们是好朋友)

不仅有前所未的多视角、新功能展现,最重要的是,各个视频的呈现效果依然处于令人惊叹的段位。

比如Go Pro视角下潜水去探索沉船。

比如下面这段视频,效果跟此前写实、逼真的画风有点不一样。

而且Sora产出的是同一片段的不同视角画面。

它的提示词是:精心制作的立体模型,描绘了日本江户时代的宁静场景。传统的木结构建筑。一个孤独的武士,穿着复杂的盔甲,缓慢地穿过城镇。

另外比较惊艳的还有一头大眼睛、长睫毛、口喷冷气的小白龙,就是下面这位:

有人尝试用同样的prompt在DALLE·3上画画,得到的结果是这样的:

41248e80a97e35ce48d4dd1e443b7ed2.png

就,还挺神似!

但Sora小白龙的效果让某种声音越来越大,那就是:

好家伙,我一眼就看出这玩意儿有虚幻引擎的影子!

1bb43209b06f6393c4fca974e65baa12.png

不过,这波视频还是惹得网友们wow wow的,不停惊叹,怎么Sora每波视频效果都越来越好了?

我的天爷啊,等Sora公测开放等得大家一天只能吃下三顿饭了!

有的网友超级激动,已经在知名新产品挖掘平台ProductHunt上给Sora的API站好了坑。

万事俱备,只欠东风。

e65d550b2a55f8e7980a8d0dd59b4518.png

官方新视频再流出

首先来看看Sora这波上新,此次最惊艳的是由玻璃制成的乌龟,日落时分在沙滩上爬行。

5710817af76caf1bb1a87873056aa15d.gif

不过也有细心的网友发现:“我只看到了三条腿…”“前面两条腿更像乌龟的脚蹼”

a0287387f804cc9bb6871c758c9f94de.png
566744464f6698b36046642400b40492.png

而在Midjourney上使用相同的提示,效果是这样的。

922f744759d907bfa8d9c1fe86475849.jpeg

另外,多个视角展现也成为了此次上新的亮点。

比如在夏威夷玩跳伞。

提示词:a man BASE jumping over tropical hawaii waters. His pet macaw flies alongside him(一名男子在夏威夷热带海域进行低空跳伞,他的宠物金刚鹦鹉与他并肩飞翔)

甚至还有F1赛车手的视角。

此外,Sora还暴露了一些类似剪辑的新功能——无缝衔接

此前看到,它能通过文本、图像或视频输入对模型进行提示。

如今发现,它还可以在两个输入视频之间逐渐进行插值。两个毫不相干的Sora视频,结果无缝过渡成了新视频。

咳咳,不过水下为啥会有蝴蝶??

任意尺寸比例生成,此次新视频也得到了展现。

不过由于悉数都是Sora团队成员发布的视频,有网友觉得,除非有个非OpenAI工作人员才测试,不然Sora就是个vaporware(雾件)

e260361386ed1e94bd893f5a8f24d761.png

这些案例中,也有被认为翻车的……

提示词:a dark neon rainforest aglow with fantastical fauna and animals(黑暗的霓虹雨林,闪烁着奇幻的动物和动物的光芒)

网友表示:为什么会是矢量动画的风格,提示中根本并没有这样的提示。

10d376f7c1b2fb9c06aba5ae94bab70f.png

这是我见过Sora最糟糕的例子

“我不是专家,但这绝对用了UE5”

与此同时,关于Sora所生成视频的讨论重心,逐渐从“这不符合物理世界的规律”,转移到更深层次——

关于其背后训练数据来源的讨论。

5430ae8ea2a0926721e9cf0be99ef966.png

现在的民间主流说法(doge)是:

这绝对用了3D引擎/UE5来训练的!

bdaf46b403ae0fcd38f9f418578d002c.png

英伟达科学家、大家伙熟悉的老盆友Jim Fan老师就在首日猜测过,称Sora虽然没有明确表示调用了UE5,但极有可能把用UE5生成的文本、视频当作合成数据,添加到自个儿的训练集中。

90ef3e4d4089248deded00a65b9faafd.png

也有一位前谷歌工作人员对Sora这次的新视频进行了在线锐评:

Sora这效果,我真的认为需要3D引擎+生成式AI结合,才能实现这样的一致性和视频质量。
事实证明,就是得要更多的数据和计算……

d3517031c1ca63072c612ad19a875feb.png

倒不是Jim Fan等人的一家之言。早在第一波Sora视频亮相时,这种声音就第一时间起来了,声量还很不小。

再多举个ee510ffaa1e861446d8175283bd31ea2.png

一位从事数据科学和ML的推友罗列出了自己站队这种观点的“证据”。

7de850df64396099aabd81cf0fbbf9c0.png

他亮出的牌是漫步樱花街头的那段视频。

然后配文道:“视频中移动的人似乎与UE5演示中的人类的移动方式非常相似。现实中的人走路逛街,并不会老用一个恒定的速度。”

1cf3b703b7e8b25d855fae17fcd1562a.png

也有人质疑这种说法,毕竟Youtube等互联网上拥有数十亿(可能还不止)小时的视频片段,干啥要用虚幻引擎来增加工作量呢?

于是就有人把“汽车行驶”的视频片段丢到上面这位推友小哥面前,说这看起来也不像是用了3D引擎搞的呀!

小哥友好地嘚吧嘚嘚吧嘚,开始了自己的分析:

“我不是专家……但感觉UE让汽车行驶掀起的尘土,只在后轮部分有。但其实现实情况中,前轮部分也会扬起尘沙。”

11f845c456332c5036257f317190ba3f.png

当然也有不少人赞同他,附和道:

虽然不一定用的是UE5吧……但事实确实是,用数字孪生模拟可能效果和效率都更好。
而且这样还能用较少的IRL数据进行更高质量的数据采样。

以及还有人把自己理解中Sora的pipeline都列到推特上了。

3e5aa8cf02f8c33d325b3b949b2726ea.png

这种讨论大规模流传开后,不少人对Sora可能是“UE5+AIGC”产生的效果嗤之以鼻。

“哼3a63c708d0a4ab645d706b0ab63afa0b.png!我话放在这儿,合成数据是视觉机器学习的作弊代码!!”

a27bf34d4087258b96a3807a97eba0b9.png

同时有人从这种讨论中看到了不久之后的一种可能性。

即未来的生成不是通过模拟真实物理来呈现,而是通过训练模拟物理模拟(即现实世界)的模型来呈现。

嗯……咱就是说,谁能一口否定没有这种可能呢?

One More Thing

Sora上新视频后,有网友急冲冲去问了另一家AI视频生成头部玩家Runway的首席执行官。

“最近几个月,有发布新版本的打算吗?就是质量接近Sora的那种~”

Runway CEO冷冷回了一个词儿:

better

59eed729fe41221cc95ba525bbc71e67.png

参考链接:
[1]https://twitter.com/minchoi/status/1761367515777695965

报名中!

2024年值得关注的AIGC企业&产品

量子位正在评选2024年最值得关注的AIGC企业、 2024年最值得期待的AIGC产品两类奖项,欢迎报名评选!

评选报名截至2024年3月31日 bd7b667778a5ae6d32cf17073b24d104.png

c5112c9572775a492de0e782d526da17.png

中国AIGC产业峰会同步火热筹备中,了解更多请戳:在这里,看见生成式AI的应用未来!中国AIGC产业峰会来啦!

商务合作请联络微信:18600164356 徐峰

活动合作请联络微信:18801103170 王琳玉

点这里👇关注我,记得标星噢

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值