Meta最近抢在OpenAI之前推出了自己的视频生成模型“Meta Movie Gen”,这款模型功能强大,几乎涵盖了OpenAI的Sora模型所拥有的一切。它能够生成不同宽高比的高清长视频,支持1080p、16秒的视频,每秒16帧的生成速度。然而,Meta Movie Gen不仅仅是对Sora功能的复制,它在功能上还有所超越。例如,Meta Movie Gen可以生成与视频完美配合的背景音乐和音效,允许用户通过文本指令来编辑视频,还可以根据用户上传的图像生成高度个性化的视频内容。
Meta称,这款模型是目前“最先进的媒体基础模型(Media Foundation Models)”。
用户只需输入一句简单的指令,例如“把灯笼变成飞向空中的泡泡”,系统就可以自动替换视频中的物体,而且生成的泡泡还能准确反射背景环境的细节。
更为个性化的是,用户可以上传自己的照片,使自己成为AI生成电影中的主角。
生成的视频不仅仅是无声的画面,还能根据内容自动生成与动作相匹配的逼真音效。比如,在滑板视频中,滑板的轮子转动、落地时的声音都能同步生成,增强了视频的真实感和沉浸感。
有专家指出,随着越来越多的创作者学会使用这些AI视频生成和编辑工具,未来的长短视频创作模式将发生深远的变化。