PIKA在沉寂了3个月后,终于又更新了...
没有去卷模型,没有去卷控制,而是继续奔赴他们1.0最开始所设定的目标:
对话。
PIKA的模型,有一个跟所有的其他AI视频产品都不同的地方在于。
当你生成人物的时候,大概率会说话,也就是唇形会动起来,模拟人物正在对话的感觉。
PIKA认为,这样的效果,才能更符合真正的"短片"效果,毕竟,一个短片,想要好看,人与人之间的对话那是必不可少的。
对话才有戏,冲突才有张力。
而如果是传统的Runway等等,做的镜头,都是空镜,对话很多时候都只能以旁白的形式去做。那样,观众在看片子的时候,沉浸感会大幅降低。
但是去年PIKA1.0上线的时候,其实是并没有跟语音打通的,意思是说,你只能跑出一个正在瞎特么动的嘴,但是没有声音。
声音你需要自己去11Labs或者魔音工坊里面跑。然后用剪映啥的,把你跑的语音和AI片段拼起来。
但是这就有一个问题是:唇形和发音,是不匹配的。
所以PIKA做唇形同步,是绝对的情理之中,他们一定会做,且必做。
还是得自己亲自上手试一下。
正好这个唇形同步,也对超级合作者开放了,于是,我就来测一下。
进入PIKA首页,传一段视频或者传一张图片后,你就能看到这么一个功能: