腾讯SEED-Story:生成丰富、叙事连贯及风格一致图文故事的大模型

腾讯SEED-Story:生成丰富、叙事连贯及风格一致图文故事的大模型

PaperAgent 2024年07月16日 11:41 湖北

SEED-Story由MLLM驱动,能够从用户提供的图片和文本作为故事的开始,生成多模态长篇故事模型、代码与数据都已开源。生成的故事包括丰富且连贯的叙事文本,以及在角色和风格上保持一致的图片。故事可以跨越多达25个多模态序列,尽管在训练期间仅使用最多10个序列

图片

SEED-Story训练过程包括三个阶段:

  • 在第一阶段,我们预训练一个基于SD-XL的去标记化器,通过接受预训练的ViT的特征作为输入来重建图片。

  • 在第二阶段,我们采样一个随机长度的交错图像-文本序列,并通过对目标图像的ViT特征和可学习查询的输出隐藏状态之间的下一个词预测和图像特征回归来训练MLLM。

  • 在第三阶段,从MLLM回归得到的图像特征被输入到去标记化器中,以调整SD-XL,增强生成图片中角色和风格的一致性。

图片

左侧:在多模态故事生成中预测下一个词时的注意力图可视化。我们观察到重要的注意力集中在整个序列的第一个词("0"词),标点符号词,与BoI(图像开头)相邻的词和与EoI(图像结尾)相邻的词上。右侧:(a) 密集型注意力图,它保留了KV缓存中的所有词。(b) 窗口型注意力,通过滑动窗口逐出前面的词。(c) 注意力汇聚,它基于窗口型注意力保留了开头的词。(d) 多模态注意力汇聚,它基于窗口型注意力保留了文本词的开头、图像词以及图像词的结尾。这可以有效地使我们的模型泛化到生成比训练序列长度更长的序列。

图片

StoryStream数据集和现有多模态故事生成数据集的样本数据StoryStream多模态故事序列包括视觉上吸引人的高分辨率图片,以及详细叙述的文本(如下方划线所示),非常接近真实世界的故事书。此外,故事在长度上也更加延伸。

图片

实验证明了SEED-Story模型在多模态故事生成方面的先进性,特别是在生成长篇故事和维持生成内容的一致性与质量方面。

MM-interleaved与SEED-Story多模态故事生成的定量评估。(a):显示FID得分的直方图。(b, c, d):使用GPT-4V分别选择MM-interleaved和SEED-Story生成的首选结果。饼图显示了胜率,其中“平局”表示GPT-4V以同等分数评估了它们的成果。

图片

来自SEED-Story的多模态故事生成示例。它展示了从同一初始图像生成的两个叙事分支。顶部分支以引用“戴黄帽子的男人”的文本开始,导致包含该角色的图像生成。底部分支开始时没有提及男人,结果导致故事在排除他的情况下与第一个分支发生分歧。

图片

SEED-Story多模态长篇故事生成结果

图片

SEED-Story多模态长篇故事生成结果

图片

使用不同注意力机制生成长故事的可视化。采用其他机制的模型在生成长序列时会崩溃,而我们的模型采用多模态注意力汇聚机制始终如一地生成高质量的图像。

图片

https://github.com/TencentARC/SEED-StorySEED-Story: Multimodal Long Story Generation with Large Language Modelhttps://arxiv.org/pdf/2407.08683

推荐阅读

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值