有关Sora的价值和问题分析

最近人工智能领域最火爆的新闻事件是OpenAI宣布了一款文生视频工具Sora,OpenAI同时公布了一段Sora生成的视频:一个女人在夜晚的街道上缓缓不行。

乍一看,这段视频像是音乐视频或时尚汽车广告的片段:一位戴着墨镜的女子在夜晚的城市街道上大步走着,周围是行人和灯火通明的广告牌。她的裙子和金环耳环随着她的每一步而摇摆。但这不是电视广告或音乐视频的录像。事实上,这不是任何真实的画面。屏幕之外,这个女人并不存在,这条街道也不存在。

视频中的一切都是由OpenAI公司的文字转视频工具Sora制作的,Sora是Dall-E和ChatGPT背后的公司开发的最新的生成式人工智能(GAI)工具。 给Sora一个简单的静态图像或简短的文字提示,它可以制作出长达一分钟的逼真视频,这段时间被称为去吃玉米煎饼的时间。

在2月15日宣布了Sora,但尚未向公众发布。该公司表示,目前限制了对一组艺术家和“红队”黑客的访问,他们正在测试生成器的有益用途和有害应用程序。但OpenAI已经在一份公告博客文章、一份简短的技术报告和首席执行官兼创始人萨姆·奥特曼(Sam Altman)在X(前身为Twitter)上的简介中分享了几十个由新工具生成的示例视频。

在持续时间和输出的真实性方面,Sora代表了人工智能生成视频的最新可能性。 Sora的出现表明,在数十亿美元投资的推动下,人工智能取得了多么快的进步,而这种飞快的速度也加剧了人们对社会后果的担忧。Sora和类似的工具威胁着许多创意领域数百万人的生计。它们可能还会放大数字虚假信息。

Sora能做什么?

目前,Sora可以生成长达60秒的视频,OpenAI表示,用户可以通过要求该工具按顺序创建额外的剪辑来扩展。这绝非易事,之前的GAI工具很难保持视频帧之间的一致性,更不用说提示之间的一致性了。尽管它具有强大的功能,Sora并不代表机器学习技术的重大飞跃。它使用的算法几乎与现有方法相同,只是在更大的数据和模型上进行了扩展,这不是新颖的技术,这是一个蛮力方法。

所以,从根本上说,Sora是一个非常大的计算机程序,它被训练成将文本标题与相应的视频内容关联起来。更技术上讲,Sora是一个扩散模型(就像许多其他图像生成AI工具一样),具有类似于ChatGPT的转换器编码系统。开发人员使用一种从视频剪辑中去除视觉噪声的迭代过程,训练Sora从文本提示中产生输出。Sora和图像生成器的主要区别在于,它不是将文本编码为静止的像素,而是将单词翻译成时空块,这些块一起组成一个完整的剪辑。谷歌的Lumiere和许多其他模型的工作原理类似。

OpenAI尚未发布太多关于Sora开发或训练的信息,该公司拒绝回答大多数问题。但包括不少专家都认为,该模型的能力来自于大量训练数据和数十亿个程序参数,这些参数在强大的计算能力下运行。OpenAI表示,它依赖授权和公开可用的视频内容进行训练;一些计算机科学家猜测,OpenAI可能还使用了由虚幻引擎等电子游戏设计程序生成的合成数据,这个判断基于Sora输出异常平滑的视频外观和一些生成的“摄像机”角度。与电子游戏的画面合成机制异常相似只是Sora虽然“非凡”但远远不够完美的原因之一。

仔细观察这个女人走路的视频,你会发现某些细节被删掉了。她的裙子底部的移动对面料来说有点太僵硬了,相机的平移感觉出奇地平滑。在特写镜头中,这条裙子上有之前没有的斑点图案。在一些镜头中,一条项链不见了,皮夹克翻领上的扣子动了,夹克本身也变长了。到目前为止,OpenAI分享的所有视频中都出现了这种不一致性,尽管其中许多可能是精心挑选出来炒作的。在一些片段中,整个人或家具物品消失了,或者突然在一个场景中出现了好几个。

可能性和危险

一些专家认为,如果人工智能视频的发展速度与图像生成的速度相同,那么所有这些缺陷很快就会变得不那么常见,也更难发现。Sora有非常酷的应用潜力,这些应用可以让创作者更容易地发挥他们的想象力,这种技术还可以降低电影制作和其他通常昂贵的艺术努力的准入门槛。从科学角度来说,这可能是一项伟大的成就。

但是,计算机科学家可能看到的成就和潜力,许多艺术家可能会看到盗窃。Sora,像它的图像生成前身一样,几乎可以肯定,在其训练数据的宝库中包含一些受版权保护的材料。它很容易复制或近似模仿这些受版权保护的作品,并将其作为自己的原创内容呈现。Sora输出的剪辑似乎与其训练数据集中可能包含的视频非常相似。

当然,还有更广泛的担忧,那就是未来事实与虚构的界限将变得越来越模糊。

假新闻的生成器

Sora和类似Sora的生成式人工智能可以被用于邪恶的目的。目前,制作假视频涉及结合AI修改和真实镜头。文本到视频平台消除了用户对原始材料的需求,加速和扩大了潜在的滥用。不少人警告说,像Sora这样的工具可能是有害内容的“放大因素”。

数字取证专家也有自己的担忧,特别是那些随意浏览短片,不加分析就吸收内容的社交媒体用户。对于不知情的用户,人工智能生成的视频将具有很大的欺骗性。 需要新的分析工具来甄别虚假内容。

OpenAI表示,他们正在采取措施,使Sora变得更加安全,包括平台的审慎发布以及内部测试、内容护栏和使用内容起源和真实性联盟(C2PA)标准,该标准使用元数据,使内容更容易辨别来源。

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值