VALSE 2024 Workshop报告分享┆Open-Sora Plan视频生成开源计划——进展与不足

2024年视觉与学习青年学者研讨会(VALSE 2024)于55日到7日在重庆悦来国际会议中心举行。本公众号将全方位地对会议的热点进行报道,方便广大读者跟踪和了解人工智能的前沿理论和技术。欢迎广大读者对文章进行关注、阅读和转发。文章是对报告人演讲内容的理解或转述,可能与报告人的原意有所不同,敬请读者理解;如报告人认为文章与自己报告的内容差别较大,可以联系公众号删除。

本文主要对来自北京大学的袁粒老师所做的Workshop报告《Open-Sora Plan视频生成开源计划——进展与不足》进行总结和分享。

1.报告人简介

袁粒,北京大学信息工程学院助理教授、博士生导师,研究方向为深度视觉神经网络设计和多模态机器学习。

2.报告概览

袁老师在报告中首先对视觉生成理论与应用的年度进展进行了概述。从2023年2月OpenAI提出了Consistency Models生成模型,到2024年2月提出Sora文本生成视频模型,从而引发巨大关注。然而由于Sora完全闭源且无API接口和使用通道,北京大学和新加坡国立大学团队分别发起了Sora复现计划,希望集聚开源社区的力量复现出开源版本的Sora。

3.内容整理

袁老师的报告主要分为四个部分,下面逐一加以详细介绍

(1)框架解析

1)在整体框架上,它将由Video VQ-VAE、Denoising Diffusion Transformer(去噪扩散型Transformer)、Condition Encoder(条件编码器)三部分组成,如图1所示。

图 1 模型整体框架

2)在训练数据准备上,有两种方案。其一是爬取高质量视频数据,然后进行高质量视频文本标注;其二是通过文本驱动物理引擎合成视频,具有视频-文本对齐度和细粒度高、生成速度快的特点。

(2)模型训练

1)注意力掩码机制支持任意比例视频输入,兼容不同的视频输入分辨率及分辨时长,已验证有效。

2)NaVit模块已经融合进框架,目前正在验证其效果。

(3)当前进展

2024年4月,袁老师团队推出了Open-Sora-Plan v1.0.0,支持图像和视频的联合训练,具有强大的视频/图像重建和生成的功能,如图2和3所示,验证了框架的可行性。与之前的视频生成模型相比,Open-Sora-Plan v1.0.0 有几点改进,具体包括:

1)使用CausalVideoVAE 进行高效训练和推理。研究团队对视频进行时空压缩达到 4×8×8。

2)采用图像-视频联合培训,提高生成内容的质量。CausalVideoVAE 将第一帧视为图像,允许以自然的方式同时对图像和视频进行编码,这使得扩散模型能够掌握更多的空间视觉细节,从而提高生成内容的质量。

图 2 图像重建效果

图 3 文本生成图像

(4)未来计划

1)现有问题

CausalVideoVAE仍然有待提高,它有两个主要缺点:运动模糊和网格化效果。同时,当前的时长和泛化性也有待提高,泛化性需要更多数据,同时各个模块需要进行加速。此外,数据对齐会影响生成的准确度,合成数据极其重要。

2)三阶段复现目标

第一阶段:初步验证当前框架的有效性。

第二阶段:在有效框架基础上训练出更多数据和更大算力,希望训练出生成视频时长达到20秒以上且图像清晰度达到720P的模型。

第三阶段:拓展生成的泛化性、场景多样性等,更加逼近Sora的时长和效果。

  • 6
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值