视觉文本视频生成最强方案!Text-Animator效果确实好!(中科大&腾讯等)

文本链接:https://arxiv.org/pdf/2406.17777
github链接:laulampaul.github.io/text-animator.html

视频生成在游戏、电子商务和广告等各行业中都是一个具有挑战性但至关重要的任务。在文本到视频(T2V)生成领域中,有效地在生成的视频中视觉文本是一个尚未解决的重要方面。尽管在文本到视频生成方面取得了一些进展,但现有的方法仍然无法直接在视频中有效地视觉文本,因为它们主要集中在总结语义场景信息、理解和描绘动作。虽然最近在图像级别的视觉文本生成方面的进展显示出了一些希望,但将这些技术转移到视频领域面临着一些问题,特别是在保持文本保真度和运动一致性方面。

本文提出了一种名为Text-Animator的创新方法,用于视觉文本视频生成。Text-Animator包含一个文本embedding注入模块,可以精确地描绘生成视频中视觉文本的结构。此外,还开发了一个摄像机控制模块和一个文本优化模块,通过控制摄像机运动和视觉文本的运动来提高生成的视觉文本的稳定性。定量和定性实验结果表明,Text-Animator在生成视觉文本的准确性方面优于最先进的视频生成方法

主要贡献可以概括为:

  • 提出了Text-Animator,这是一种新颖的方法,可以在视频中生成视觉文本并保持生成视觉文本的结构一致性。这是首次尝试解决视觉文本视频生成问题。

  • 为Text-Animator开发了一个文本embedding注入模块,可以精确描绘视觉文本的结构信息。此外,还提出了一个摄像机控制和文本优化模块,以准确控制摄像机运动和生成视觉文本的运动,从而提高生成的稳定性。

  • 大量实验表明,Text-Animator在生成视觉文本的准确性方面,比现有的文本到视频和图像到视频的生成方法有显著的优势。

方法

本节首先介绍Text-Animator的流程。然后分别介绍关键组件的详细信息。

文本条件的视频生成流程

首先,介绍下网络的整体框架,如下图2所示。

Text-Animator由四个部分组成:文本embedding注入模块、摄像机控制模块、文本字形和位置优化模块,以及3D-UNet模块。给定集成文本、位置图和摄像机位姿信息(),通过在图像上使用统一字体样式根据其位置渲染文本生成字形图。然后,通过使用摄像机位姿信息变形和生成视频位置图和字形图。摄像机控制模块和文本embedding注入模块分别输出与其控制输入相对应的多尺度控制特征。噪声被输入到一个3D-UNet(工作中使用的3D-UNet架构与AnimateDiffv3中使用的相同)以获得输出ε。在推理阶段,这个输出通过VAE的解码器生成最终输出视频。

最近,扩散模型作为T2V生成的主要框架,取得了令人鼓舞的结果。当前的T2V方法源自用于图像生成的扩散模型的原始公式。更具体地说,通过对输入视频应用变分自编码器(VAE)生成潜在表示。然后,在T步内逐渐用来自正态分布的噪声ε扰动的N个潜在特征序列。给定噪声输入,一个神经网络εθ被训练来预测添加的噪声。研究者们在去噪过程中注入双重控制信号(位置控制和摄像机控制),加强视频生成的稳定性。具体来说,这两个控制特征首先分别输入到附加的ControlNet 和,然后通过各种操作注入到生成器中。因此,编码器的训练目标如下所示:

其中, 是对应文本提示的embedding, 是位置图和字形图的集合, 是摄像机位姿信息的集合()。

文本embedding注入模块

在生成包含视觉文本的视频时,首先需要考虑的是如何将所需文本的视觉特征有效地embedding到基础模型(预训练的UNet模型)中。受到之前在图像中视觉文本方法的启发,通过结合文本框的位置和渲染的字形,将文本条件embedding到潜在空间中。文本框指示了在生成的图像中进行渲染的位置,而渲染的字形利用现有的字体样式(即‘Arial Unicode’)来预初始化字符的样式。此外,与图像生成不同,视频生成涉及跨多个帧处理特征。为了利用用于图像生成的预训练特征提取器,使用逐帧特征提取器从每个帧中提取特征,然后在输入预训练UNet模型之前连接这些特征。

从上面图2的左上角可以看到,位置和字形控制模块的输入是生成的 位置图和 字形图。使用字形卷积块和位置卷积块分别提取字形和位置的特征。然后,使用融合卷积块将这些特征合并。最后,将这些特征与噪声输入结合后,输入到文本和位置ControlNet中。文本和位置ControlNet输出多尺度特征图FPk。按照ControlNet,将这些特征融合到UNet网络的中间块和上采样块中,并直接添加到相应的特征中。

稳定文本生成的摄像机控制

在引入文本embedding注入模块后,Text-Animator现在能够生成视觉文本视频,并使文本随场景移动。然而,这种文本移动有时会与视频中物体的移动脱节。例如,在提示“写有‘STOP’的标志”中,“STOP”部分可能会向右移动,而标志则向左移动。为了生成更稳定的视频,需要设计额外的控制模块。因此,建议使用摄像机位姿信息来控制文本的移动,并确保与场景内容的一致性。本节主要讨论如何将摄像机位姿信息embedding到基础模型中。

为了有效地将摄像机位姿信息()embedding到摄像机ControlNet中,按照[11, 25]的方法,使用了Plucker embedding。简要介绍如下:图像平面中的点(u,v)表示为,其中表示世界坐标系中的摄像机中心,表示世界坐标系中的方向向量,计算公式为。R和t分别指旋转矩阵和平移向量。因此,embedding可以表示为,其中H和W分别为帧的高度和宽度,n表示帧数。

摄像机ControlNet由四个块组成,每个块包括一个基于残差的卷积块和一个基于Transformer的时间注意力块,允许网络学习摄像机位姿信息中的时间关系。网络输出多尺度特征,。在获得多尺度摄像机特征后,有必要将这些特征集成到T2V模型的3D-UNet架构中。图像潜在特征和摄像机位姿特征通过逐像素相加直接融合。

辅助文本字形和位置优化

为了实现摄像机控制模块与文本embedding注入模块之间的协作,有必要使用视频中的摄像机位置信息作为指导,通过考虑第一帧的指导来生成后续帧的位置图和字形图。生成方法如下:

给定第一帧的图(位置图或字形图)M、内参矩阵K、第一帧的变换矩阵和第n帧的变换矩阵。首先计算从第一帧到第二帧的变换矩阵,并构建投影矩阵。接下来,将第一帧的像素坐标矩阵转换为摄像机坐标系中的三维点Pointcam13d。由于缺乏深度信息,假设在同一行上渲染的文本在相同深度。然后,使用相对变换矩阵转换到第二帧的摄像机坐标系,并使用P将其投影回像素平面,然后进行归一化操作。归一化后,投影坐标被限制在图像边界内,并填充到第二帧图像中。

在从视频生成位置和字形图后,在实验中观察到,位置特征图的相对位置和大小对最终生成结果有一定影响。如果位置特征图较小,会影响生成文本的多样性,导致视觉文本与视频内容不和谐。相反,如果位置特征图较大,可能会导致生成的文本包含错误或重复的字符。因此,设计了一个位置优化模块。首先,提取初始位置图的质心,并在特定位置渲染字形图。然后,提取字形图的凸包,并通过添加扩展因子e来扩展它,以生成新的位置图。

实验

实现细节

选择AnimateDiffV3作为基础文本到视频(T2V)模型。模型的运动模块权重使用AnimateDiffV3进行初始化。其他部分的权重使用DreamShaper或原始的SD1.5进行初始化。摄像机控制网和文本及位置控制网的训练方法和数据集使用[11]和[27]中的方法。最后,将所有部分整合并固定参数进行推理。G和P的图像尺寸分别设置为1024×1024和512×512。扩展尺寸e设置为1.2。在采样过程中,随机选择一些提示语(如“这些文本写在上面:xxx”)并将它们连接到标题上。推理步骤和指导尺度分别设置为25和7.5。最终,模型输出尺寸为16×256×384的视频。

数据集和指标

由于缺乏用于视觉文本生成评估的文本到视频数据集,使用AnyText-benchmark的LAION子集来评估视觉文本视频生成的效果。然而,在该数据集中,有些图像的文本和主要内容是分开的,而有些图像只有文本没有任何图像内容,这对于视频生成是没有意义的。因此,从数据集中选择了约90张图像组成测试集,命名为LAION子集。

首先,需要评估文本生成的准确性和质量。根据论文[27],采用了句子准确率(Sen. Acc)指标,其中每一行生成的文本根据指定位置裁剪并输入OCR模型以获得预测结果。此外,使用归一化编辑距离(NED)来衡量两个字符串之间的相似性。为了确保Text-Animator具有更好的视频生成能力,利用弗里切特embedding距离(FID)来评估生成视频与真实视频之间的视频外观质量。此外,还采用了提示相似性和帧相似性指标。前者评估输入描述与输出视频之间的语义相似性,后者评估生成视频的连贯性。

定量结果

定量结果如下表1所示。比较方法分为两部分。第一部分是特定图像视觉文本生成工作的组合(GlyphControl和 Anytext)+ 最先进的图像到视频(I2V)工作(AnimateLCM,I2VGEN-XL)。第二部分是一阶段方法。使用Animatediff-SDXL作为基础模型,并使用CIVIAI的两个微调lora权重,分别表示为Animatediff-SDXL(Text Lora A)1和Animatediff-SDXL(Text Lora B)2。这两个lora权重使用一些具有视觉文本的图像进行微调。从表1可以看出,这些方法的参数比Text-Animator大得多(超过41%)。

此外,Text-Animator在生成视觉文本的准确性方面显著优于其他方法,根据评价指标Sen. ACC和NED(分别比最佳方法高出191.8%和30.4%)。这反映了本文方法生成文本的准确性,且生成的视频中文本没有崩溃。对于衡量生成视频与输入文本相似度的指标(FID和Prompt相似度),Text-Animator取得了第二好的结果。在提示相似度方面,与最佳方法的差距仅为0.6%。在衡量视频稳定性和帧相似度的指标上,Text-Animator取得了第二好的结果。观察到,最佳方法Pika倾向于生成移动较小的视频,使其在该指标上具有优势。

此外,在下表2中,还与Open-SORA和最近的三个最先进API,Morph Studio,Pika 和Gen-2进行了比较。Open-SORA和Morph Studio没有Sen. ACC得分,因为它们无法生成正确的句子或单词。Text-Animator在Sen. ACC方面显著优于其他方法,并且在NED方面也表现优于其他方法。

定性结果

研究者们首先将本文模型与文本到视频生成领域的最先进T2V模型或API进行比较(包括ModelScope、SVD(Stable Video Diffusion)、AnimatedDiff、Open-SORA和Pika),如下图3所示。这些模型展示了对上下文的理解能力,但无法生成特定文本并保持文本一致性。与SVD相比,本文的模型不仅能准确渲染每个字符(本文的:‘HELLO’ vs SVD:‘HELO’或Pika:‘HHLLLO’),而且还能保持一致性。SVD未能学习文本的运动信息,导致文本随着时间的推移变得越来越混乱。

至于与特定视觉文本生成工作的比较,由于目前没有专门为视觉文本生成设计的T2V工作,将Text-Animator与特定T2I工作的组合(如GlyphControl和Anytext)和最先进的I2V工作(如AnimateLCM、I2VGen-XL和SVD )进行对比。如下图4所示,Text-Animator在生成文本与背景的整合方面表现优越,而Anytext无法生成海边背景。当使用I2V方法从参考帧图像生成视频时,文本部分往往会变得模糊或扭曲。Text-Animator很好地保持了文本部分的清晰度,并与图像内容协调移动。

此外,在下图5中,展示了LAION子集数据集的一个示例。只有Text-Animator能够正确显示视觉字符(CHRISTMAS)和包的数量(两个)。

同时,还进行了实验以验证本文方法的鲁棒性。在下图6中,展示了Text-Animator在文本区域大幅移动时的鲁棒性。现有的SOTA方法在小幅移动期间变形了文本区域(如上例所示),因此这些方法的可视化结果未在此展示。这两个示例的文本分别为“带有‘cafe’字样的办公室桌上的咖啡杯”和“带有‘MILK’字样的牛奶瓶”。移动方向从右到左。可以看到,即使在大范围的相机移动下,Text-Animator仍然能够保持文本的结构。

下图7展示了在相同的相机信息下,通过采样间隔帧的相机信息,可以控制其移动速度。即使在原速的4倍或6倍速度下,Text-Animator仍然能够保持文本的结构。

消融研究

在这一部分中,为了说明本文方法的贡献,在LAION子集上进行了消融研究。定量比较结果如表3所示。

双重控制: 进行了消融研究以分析双重控制设计的有效性。一般来说,仅使用位置框进行引导而不使用相机姿态是可行的。因此,设计了“没有相机控制”的模型,该模型相对于原始模型去掉了相机引导模块。此外,还移除了位置块,仅使用相机姿态和字形embedding,并将此模型命名为“没有位置控制”。在上表3中,可以看到,在NED指标上,“没有相机控制”模型的性能比原始模型下降了0.016,而“没有位置控制”模型的性能比原始模型下降了0.027。

位置精细化和扩展尺寸: 研究者们还进行了实验,以分析提出的精细化模块的有效性。当移除视频位置精细化时,使用LAION子集中的默认位置,并在上表3中将模型表示为“没有位置精细化”。可以看到,使用默认位置会降低准确性。此外,还进行了适当扩展尺寸的实验。尝试了两个扩展系数:0.9(小于1.2)和1.4(大于1.2)。可以观察到,虽然较小的扩展系数提高了视频中文本的准确性,但对视频生成的质量产生了负面影响。另一方面,较大的扩展系数导致一些字符在视频中重复出现,从而降低了文本的准确性。

结论

本文提出了Text-Animator,一种创新的方法,用于解决在视觉文本视频生成领域中将文本元素有效地集成到生成视频中的挑战。Text-Animator不仅强调文本的语义理解,还注重细粒度的文本语义,确保视觉文本在动态集成到视频内容中的同时保持运动连贯性。Text-Animator引入了双重控制机制——相机和位置控制,以同步文本动画与视频运动,从而增强文本元素与视频场景之间的统一性和协调性。通过广泛的定量和视觉实验,证明了Text-Animator在视频质量和文本表示的保真度方面优于现有的T2V和混合T2I/I2V方法。

本文的贡献不仅解决了当前的挑战,还激发了对这一快速发展的多媒体内容生成领域的进一步探索和创新。

参考文献

[1] Text-Animator: Controllable Visual Text Video Generation

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值