LLM多模态生成和编辑技术综述:技术进展、应用场景、未来展望

随着大语言模型(LLMs)的最近进展,结合LLMs与多模态学习的兴趣日益增长。以往的多模态大型语言模型(MLLMs)的调查主要集中在理解上。本次调查详细阐述了跨不同领域的多模态生成,包括图像、视频、3D和音频,我们在这里强调了这些领域中的重要进展和里程碑式的作品。具体来说,我们详尽地调查了这些研究中使用的方法和多模态数据集背后的关键技术组成部分。此外,我们还深入探讨了可以使用现有生成模型进行人机交互的工具增强型多模态智能体。最后,我们也全面讨论了AI安全性的进步,并调查了新兴应用以及未来的前景。我们的工作提供了一个系统而富有洞察力的多模态生成概述,预计将推进人工智能在生成内容(AIGC)和世界模型方面的发展。

在这里插入图片描述

1 - 研究概述

人类与物理世界的互动涉及多种模态的信息,如语言、视觉和音频。因此,实现一个世界模拟器也需要模型能够灵活地感知并以多模态信息做出响应。最近,OpenAI提出了一个基础视频生成模型Sora [1],它能够生成高度逼真的视频作为世界模拟器。它在模拟或生成现实世界视频方面取得了巨大进步,但无法生成其他模态,如文本、3D和音频。同时,它也缺乏感知其他模态的能力,例如图像、视频、3D和音频,这使得它成为一个不完全理解的世界模拟器。

在过去的几年中,研究人员专注于每种单一模态的生成,并取得了巨大进步:

文本生成方面,我们见证了文本生成效果的质的飞跃:从BERT [2]、GPT1 [3]、GPT2 [4]、GPT3 [5]、GPT4 [6]到ChatGPT [7]、LLaMA [8]、[9],模型参数的数量和训练样本的增长迅速,导致模态能力和产品部署的持续增长。

视觉生成领域,随着扩散模型和大规模图像数据集的快速发展,图像生成取得了显著的成就,能够根据用户提供的各种文本提示合成高质量的图像 [10]–[13]。随后,在视频生成领域通过使用视频扩散模型和大规模视频-语言数据集取得了重大进展。值得注意的是,一些开创性的工作已经出现,如 [14]–[22] 和 Sora [1]。

对于3D生成,随着CLIP [23] 模型的出现,一些方法 [24]–[26] 尝试将文本信息带到3D表示的渲染图像中(即点云、网格、NeRF [27] 和高斯散射 [28]),这些方法在文本到3D生成方面取得了显著的发展。此外,Stable Diffusion (SD) [10] 与文本到图像渲染的整合使得一系列文本到3D生成的工作得以实现 [29]–[43]。强大的文本到图像模型帮助3D生成实现了更高的性能和更好的结果。

音频生成领域,一系列代表性的作品解决了不同的音频领域,如 [44]–[46] 的文本到音频、[47]–[49] 的文本到音乐和 [50]–[55] 的文本到语音,它们在生成高质量自然声音、音乐和人类水平语音方面取得了显著的性能。

随着大型语言模型(LLMs)的显著进步和性能的显著提高,其他非文本模态开始利用LLMs的力量,要么增强它们的生成管道,要么将文本生成和非文本生成集成到一个统一的系统中,旨在实现更高级的功能和改进的生成性能。

图像生成的背景下,有两种类别的方法与语言模型实现了显著的整合。第一类涉及将视觉信息编码为离散的标记ID,试图统一视觉理解和生成 [56]–[61]。具体来说,视觉信息被编码为标记表示,LLMs直接理解并生成视觉标记,实现同时进行视觉理解和生成。第二类侧重于利用LLMs来提高现有预训练的文本到图像(T2I)模型的生成质量:一类工作涉及使用LLM作为布局规划器,融入对象空间位置、数量和对象大小的知识,实现所需边界框的生成 [62]–[66]。获得边界框后,可以通过基于基础的文本到图像(T2I)模型 [67] 生成图像。另一种方法涉及使用LLMs来扩展输入用户提示 [68]:通过提供高度详细和全面的用户提示,LLMs通过丰富提示信息生成高质量的图像。在LLMs的协助下,视觉生成实现了更高的生成质量,改善了提示跟随能力,对话功能和用户友好的界面。

在视频生成中,LLMs作为统一多模态联合生成的通用主干 [69]、[70],视频布局规划 [63]、[71]–[74] 和时间提示生成 [75]–[79] 用于动态指导。对于3D生成和编辑,LLMs作为用户和3D资产之间的桥梁,提高了交互效率 [80]、[81],并帮助用户理解 [82]、[83] 3D资产。在音频生成和编辑的背景下,语言模型的主要作用在于作为多模态音频的协调主干 [84]–[96],特定任务的条件器 [97]–[99],音频理解的标签器 [100]–[102],以及交互式生成/编辑的智能体 [103]–[108],以及新颖方法的灵感来源 [47]、[48]、[53]、[109]–[111]。LLMs在音频领域的日益增长的应用不仅改变了我们与声音和音乐的互动方式,而且还在AGI和音频技术的交汇处扩展了边界。此外,多模态智能体将多种模态集成到一个单一系统中,以开发一个通用系统,该系统具有理解和生成非文本模态的能力。因此,LLMs在生成各种内容模式方面发挥着越来越重要的作用。

在这里插入图片描述

图1: 我们的主目标是调查大型语言模型(LLMs)在语言引导的多模态生成任务中的角色。我们关注的模态包括图像、视频、3D和音频(包括声音、音乐和语音)。

为了增强世界模拟器并推动多模态生成的发展,在这项工作中,我们提供了一个全面回顾,涉及LLMs在生成多种模态中的作用。如图1所示,我们将LLMs的角色总结为几个关键方面,如评估器、标签器、指令处理器、规划器、提供语义指导或作为主干架构。我们探讨了新兴应用和潜在的未来前景。我们将我们的贡献总结如下:

  • 我们首次系统回顾了LLMs在生成多种模态,包括图像、视频、3D和音频方面的应用。

  • 我们通过比较前LLM和后LLM时代的生成技术的发展,提供了一个清晰的视角,以展示这些方法的进展和改进。

  • 我们从技术角度总结了LLMs在每种模态的生成过程中的各种角色。

  • 我们讨论了重要的AI安全问题,调查了新兴应用并探索了未来的方向,以促进多模态生成和世界模型的发展。

2 - 技术进展

在这里插入图片描述

图 2:生成模型图解。在这幅图中,x 和 x0 表示真实数据分布的样本,x′ 表示模型估计数据分布的样本,z 表示从先验分布(通常是高斯分布)中抽取的潜在样本。

在这里插入图片描述

图3: 图像生成发展轨迹的历史回顾。早期的图像生成工作主要集中在合成特定狭窄领域内的图像,例如人脸或卧室。随后,DALL-E和潜在扩散模型(LDM)发展到可以通过用户提示生成图像,并支持开放领域图像的合成。近两年来,在大型语言模型的推动下,研究趋向于实现更直观和交互式的图像生成过程,例如通过对话进行迭代生成。

在这里插入图片描述

图4: 在大型语言模型上整合图像理解和生成能力的通用流程。在推理时,用户可以输入交错的多模态数据(例如文本和图像)。图像分词器将信息处理成图像标记,并将其输入到LLM中。LLM输出图像标记,然后将其解码成文本响应和图像。

在这里插入图片描述

图5: 标准文本到图像(T2I)流程、使用LLMs作为布局规划者的T2I流程,以及使用LLMs提供布局建议的T2I流程的比较。

在这里插入图片描述

图6: 基于Clip/T5和基于LLMs的语言引导视频生成的里程碑工作。

在这里插入图片描述

图7: 使用CLIP和LLMs进行3D生成的通用流程。CLIP基础模型通过最小化渲染图像和文本提示之间的距离来优化3D表示。为了提高交互效率,基于LLMs的方法尝试将LLMs的语言输出直接转换为搅拌器代码或3D表示(例如人体动作)。

在这里插入图片描述

图8: 基于LLMs的音频研究的里程碑工作,包括音频生成、理解和编辑。

在这里插入图片描述

图9: 根据不同角色总结的与LLMs相关的音频研究方法。LLMs作为骨干:语言预训练的LLMs检查点作为处理文本和音频标记的中心单元,无论是连续的还是离散的。LLMs作为启发:与作为骨干的LLMs不同,这种方法在离散音频标记上训练随机初始化的LLMs架构。LLMs作为条件提供者:LLMs将文本提示编码为嵌入,作为音频生成器的条件。LLMs作为代理:LLMs通过利用外部工具解决用户请求。LLMs作为标签提供者:LLMs将类别标签转换为音频字幕。

在这里插入图片描述

图10: 增强工具的多模态智能体的流程。

在这里插入图片描述

图11: 专注于多模态生成和编辑的多模态智能体的里程碑。
在这里插入图片描述

图12: 我们展示了不同方法在图像生成上的一些案例研究。

在这里插入图片描述

图13: 通过点击进行交互式图像编辑。

在这里插入图片描述

图14: 根据给定图像生成音频的示例。
在这里插入图片描述

图15: 这个示例展示了多模态智能体根据指令生成多个输出。

在这里插入图片描述

图16: 多模态生成的一个示例,展示了天气状况的可视化。

在这里插入图片描述

表1: 使用LLMs进行基于语言的图像生成的现有方法概览。根据LLMs在此任务中的角色,这些方法可以分为四类:具有图像生成能力的多模态LLMs、图像布局规划、提示合成和细化,以及图像质量评估。

在这里插入图片描述

表2: 可以用于基于语言的图像生成的图像-语言数据集。

在这里插入图片描述

表3: 基于CLIP和LLMs的基于语言的图像编辑方法概览。我们总结了涉及的LLMs和生成模型,以及该方法是否需要训练。

在这里插入图片描述

表4: 基于CLIP和LLMs的视频编辑方法概览。我们总结了涉及的LLMs和生成模型,以及该方法是否需要训练。

在这里插入图片描述

表5: 利用LLMs进行基于语言的视频生成的现有方法概览。我们把这些方法分为四类:用于视频生成的多模态LLMs、视频布局规划和时间提示生成。在每种方法中,我们总结了任务的输入输出、涉及的LLM,以及生成模型。
在这里插入图片描述

表6: 可以用于语言引导的视频生成的公共视频-语言数据集。对于每个数据集,我们列出了以下信息:数据集名称、会议场所、数据集领域、视频来源、视频空间分辨率、每个片段的平均持续时间、片段总数、视频总数、总小时数,以及字幕来源。
在这里插入图片描述

表7: 3D通用对象生成的总结。优化目标是指学习过程中的基本约束。表示是指3D输出的类型。没有优化目标的方法意味着该方法不受CLIP损失或基于SDS的损失的指导。

在这里插入图片描述

表8: 可以用于基于语言的音频研究的音频数据集。对于每个数据集,我们列出了以下信息:数据集名称、会议场所、每个片段的平均持续时间、片段总数、总小时数,以及数据集领域。

在这里插入图片描述

表9: 与LLMs相关的音频任务的方法总结:生成(G)、理解(U)和编辑(E)。我们根据LLMs的角色将方法分为五类:作为骨干的LLMs、受LLMs启发的骨干、作为条件提供者的LLMs、作为代理的LLMs和作为标签提供者的LLMs。

在这里插入图片描述

表10:用于训练或评估模型的多模态代理指令样本。

在这里插入图片描述

表11:多模态智能体我们只展示建立在LMM基础上,通过调用专家模型来解决用户问题的方法。

在这里插入图片描述

表12:各种模式和方法的生成式人工智能安全性概述。术语 “Adv. ”表示 “对抗性攻击”。

3 - 应用场景

OpenAI、Google、Meta、百度和微软等公司在大型语言模型(LLMs)方面的快速发展,推动了一系列令人印象深刻的AI驱动应用的产生。这些模型,如GPT-4、Gemini和Claude,已展示出在多模态任务,特别是在多模态理解方面的显著能力。这些模型理解、解释和生成多模态内容的能力是人工智能的一个重要里程碑。这种多模态能力为各个行业带来了巨大的潜力,并展示了LLMs在多模态生成方面的有效性。在本节中,我们将回顾一些已经发布的卓越应用。从图像生成开始,逐步到视频、音频和3D生成,这些展示证明了LLMs在跨多个模态生成内容方面的显著影响。

3.1 图像

扩散模型的快速发展见证了合成图像质量和逼真度的显著提高。这促使众多公司开发出高质量的文本到图像生成工具和多模态条件图像编辑或生成解决方案。Midjourney在行业中取得了显著进展。它通过提供用户基于文本提示生成高质量、逼真图像的能力,实现了内容创作和设计。其用户友好的界面和强大的性能使其成为专业人士和图像生成爱好者的首选。此外,Stability AI提供了一个功能强大的开源生成模型。用户社区提供了各种使用方法,确实将创造力和工具交到了用户手中。开放微调创造了一个庞大的开源图像使用社区。即使是非计算机科学家的艺术家也可以轻松地在他们的基本模型基础上制作自己的小型模型。用户集成各种模态工具进行部署,使他们的图像生成模型发挥更好的作用。DALLE3是将图像生成能力无缝集成到功能强大的ChatGPT4聊天机器人中的一个显著例子。有了DALLE3,用户可以通过基于文本的提示生成和修改图像。OpenAI的DALL-E和DALL-E 2的成功为LLMs内部的高度复杂图像生成能力铺平了道路。这些模型可以从文本描述中创建详细、逼真的图像,允许在众多领域进行快速原型设计和内容创作。除了上述行业领先的解决方案外,还有许多文本到图像生成工具利用LLMs来增强用户体验的健壮性和整体质量。通过利用LLMs来扩展和完善标题,这些工具可以提高生成图像的质量以及平台的整体可靠性和用户友好性。

3.2 视频

随着大规模视频生成模型的出现,个人现在可以通过简单地输入文本描述来获得高质量的视频片段。用户不需要传统视频制作的专业技能,如CG建模、3D建模或其他专业知识。用户可以通过文本描述提示生成所需的视频片段,然后将它们组装成吸引人的短片或动画视频。该领域现有的杰出工具包括像Pika和Runway的Gen2这样的商业工具,以及像AnimateDiff、VideoCrafter和SVD这样的开源视频生成模型。关于人类视频生成,Heygen是一个在各个领域广泛应用的流行工具,包括电子商务、社交媒体和广告视频。在一些由Sora生成的演示视频发布后,在逼真度和提示跟随能力方面取得了显著进步,这增强了人们对大规模文本到视频模型应用的信心。为了降低电影和电视行业的视频制作成本,已经做出了许多努力。

3.3 音频

多模态AI在音频领域的应用已经被探索了很长时间。用例更加明确,对定制化和多样化声音的需求更加成熟。文本到语音生成、声音转移、音乐生成等音频生成技术在教育、视频配音、智能终端、语音助手和医疗领域展示了有希望的前景。微软的Azure平台在语音生成方面处于领先地位,并推动了AI生成声音在短视频平台的整合。Descript是一个基于AI的音频和视频编辑器,可以将音频和视频中的语音转录成文本,使用户能够像编辑Word文档一样修改音频和视频。此外,许多视频平台、视频编辑软件和音频平台也对应用多模态模型和音频生成给予了极大的关注。除了语音和音频生成,音乐生成也是行业的热点。对音乐的热情推动了无数AI研究人员和科学家投入巨大的努力来推进这个领域。Suno AI迎来了音乐生成的“Sora时代”,用户现在可以通过提供描述所需歌词风格的文本提示来创建生动、高质量的歌曲。此外,像Stability Audio、Google的MusicFX、Tuneflow和Deepmusic等公司也提供了他们的音乐生成产品,进一步扩展了这个领域的能力。

3.4 3D

3D模型的生成在电影、游戏、工业设计、建筑、室内设计、产品设计和虚拟现实等不同领域至关重要。它提供了逼真的视觉体验和沉浸式互动,有助于创建角色、场景、产品和虚拟环境,增强创造力和参与度。Meta在3D建模和虚拟现实技术方面进行了大量投资。Epic Games的MetaHuman Creator是一个设计用于提升实时数字人物创造的云流应用,它可以与Unreal Engine结合使用,后者是一个最先进的实时引擎和编辑器。至于3D重建和生成,Luma AI正在取得重大进展,其技术能够从2D图像生成3D模型,简化了创建3D内容的过程。其他行业参与者,如Adobe和Kaedim3D,也在这一领域取得了实质性进展。Adobe的3D和AR工具使创造沉浸式内容成为可能,而Kaedim3D的AI技术可以将2D图像转换为3D模型。Wonder Studio是一个功能强大的AI工具,用于视频中的人物替换,它可以将视频中的原始角色替换为用户创建的3D模型,为个性化内容创作开启了激动人心的可能性。

最近在语言到语言模型(LLMs)方面的进步揭示了文本交互和生成的显著潜力,为使用自然语言命令创建和操作3D模型开辟了新的可能性,使过程更加直观和易于访问。例如,Meta的SceneScript能够根据其强大的基于语言的模型Llama重建环境并表示物理空间的布局。然而,与图像到3D相比,文本到3D仍然是Meta、Google、腾讯等公司的研究课题。将LLMs整合到3D世界中正在改变我们创建和与数字内容互动的方式。随着这些技术的不断发展,我们预计会有更多的有趣和实用的应用出现。

3.5 其他

一个AI驱动的软件通常需要处理各种模态的输入数据。对多模态解决方案的日益增长的需求凸显了能够无缝集成和处理各种数据类型的先进AI模型的重要性。例如,AI生成的电影结合了视频、音乐和语音生成的3D技术,与人类艺术家合作,制作高质量的电影体验。数字人也已成为各个行业中的突出人物,从直播和游戏到纪念服务和大规模交互式展示。此外,LLM +多模态生成工具在数学、法律、教育和机器人领域也找到了多种应用。总之,我们目前正在见证具有LLMs的多模态生成模型的黎明,这无疑将改变我们的生活。

4 - 未来展望

LLMs增强的多模态生成是一个有前景的研究领域,它利用LLMs的语言知识来提升跨各种模态的生成,如图像、视频、3D和音频。这一系列方法不仅可以提高生成内容的质量、多样性和可控性,还可以促进多模态生成期间的交互性。与此方向一致,我们打算提出未来工作的未来展望。

4.1 技术展望

在本节中,我们专注于多模态生成的技术前景,预计将提供更多见解并促进未来的工作。

4.1.1 高分辨率生成

高分辨率多模态生成至关重要,因为它直接影响生成内容在图像[497]、[498]、视频[499]、[500]、音频和3D生成[42]等各个领域的质量和可用性。相应地,音频生成[47]、[396]、[501]、[502]中的高保真度也需要考虑。生产高分辨率多模态生成的能力对于需要详细和现实表示的应用至关重要,范围从虚拟现实到电影制作。因为它增强了感知体验,提供了更多信息进行分析,并提高了后续任务的性能,如对象识别和场景理解。LLMs有潜力解决高分辨率多模态生成中的挑战。它们可以提供更无缝的视觉和文本模态的整合,提供基于对话的界面和指令跟随能力[68]。它可以通过改善对复杂指令的理解并生成更准确和多样化的输出来增强生成过程。包括图像[10]、[68]、[503]、[504]、视频[19]、[273]、[505]、[506]、3D[353]、[507]、[508]和音频[44]、[46]、[100]在内的不同模态的最新进展,已经显著提高了生成内容的质量。我们非常期待看到未来的作品整合LLMs,从而为高分辨率生成提供更强的支持。此外,高分辨率内容生成通常涉及大量的硬件费用和时间成本。因此,高分辨率内容的有效生成也是一个值得研究的话题。

4.1.2 长期序列生成

长期序列生成对于创造视频[506]、[509]和音频[44]、[110]、[510]、[511]中的沉浸式体验至关重要。在视频中,它允许展现不断演变的场景和叙事,而在音频中,它支持音乐和对话的发展,这些可以适应并随时间流动。能够随时间生成长序列不仅是一个技术挑战,也是一个创造性挑战,模型必须理解并预测复杂的模式和进程。它应该保持连贯性,防止重复,并引入与总体主题和输入条件一致的新元素。只有当我们能够为视频和音频生成长序列时,它才可能具有实际意义。最近在LLMs方面的进展,如OpenAI的GPT系列和Meta的LLaMA[137],解决了长期序列生成的挑战。LLMs建立在预训练的语言表示和微调技术之上,以捕捉文本数据中的复杂模式和依赖关系,使它们能够生成连贯且与上下文相关的长序列。通过利用LLMs的上下文理解和生成能力,研究人员可以探索长期序列生成。例如,在多模态数据集上微调预训练的LLMs可以使它们能够跨不同模态生成连贯和多样化的序列,包括视频和音频。此外,提示工程和条件化等技术可以指导生成过程朝着期望的结果发展,允许创建具有特定主题或叙事的长序列。我们认为,LLMs可以增强生成长期序列的连贯性和一致性。总的来说,长期序列生成是一个复杂但引人注目的研究领域,涉及多个领域。通过利用LLMs的能力和解决相关挑战,研究人员可以为创造沉浸式和引人入胜的序列解锁新的机会,这些序列可以吸引观众并推动内容创作和叙事的边界。

4.1.3 更准确和细粒度的生成控制

准确和细粒度的生成控制在AIGC中是一个重要主题,原因有几个。首先,它允许创建更真实和高质量的多模态内容。这在娱乐、广告和教育等领域尤其重要,高质量的内容可以显著增强用户体验。其次,细粒度控制还可以促进人类与AI之间的更有效沟通。例如,具有细粒度控制的AI模型可以根据用户的详细描述生成特定的图像或声音,从而改善用户与AI之间的交互。最后,细粒度控制也可以促进其他AI领域的发展。例如,在强化学习中,如果AI代理能够生成其环境的详细和准确的模拟,它可以更有效地学习。许多方法[19]、[68]、[512]、[513]已被提出来解决准确和细粒度的生成控制问题。然而,这些方法仍有一些限制。例如,它们在生成细节方面仍然存在困难,如手指或身体部位,这可能导致不真实的输出。此外,它们可能也无法准确捕捉控制信号的细微差别,导致生成的内容与控制信号不匹配。大型语言模型在理解和生成文本方面展现出了显著的能力。通过利用这些能力,我们有可能提高生成控制的准确性和粒度。一个突出的例子是图像或视频上的文本渲染[62]、[194]、[195]、[514]、[515]。观察到,通过使用强大的语言模型,如T5-XXL作为编码器,图像生成模型将展现出更好的拼写能力。在这种情况下,将更强大的LLMs整合到生成模型中值得进一步探索。总的来说,大型语言模型可以被训练以更好地理解控制信号的细微差别,从而提高控制信号与生成内容之间的一致性。

4.1.4 多视图一致性

多视图一致性(MVC)是视觉生成的一个基本方面,特别是在3D生成中,确保对象外观从不同视图的一致性和连续性。这种一致性对于增强现实(AR)、虚拟现实(VR)和计算机图形学中的应用至关重要,用户在这些应用中与3D对象进行看似真实世界的交互。不一致的外观可能会破坏沉浸感,导致不太真实的体验。多视图一致性的重要性在于其能够提供3D对象的无缝和集成感知,增强用户与数字内容的体验和交互。MVC特别具有挑战性,因为将2D图像转换为一致的3D模型的复杂性,可能会出现遮挡、照明变化和几何失真等问题。最近的进步对多视图一致性给予了大量关注。在3D生成中,Sculpt3D引入了一个稀疏的3D先验来提高一致性,而无需重新训练2D扩散模型。HarmonyView通过使用扩散采样技术来平衡一致性和多样性。此外,MVDream在得分蒸馏过程中缺乏全面的多视图知识或3D意识,导致生成不稳定和伪影。在图像和视频生成中,[518]、[519]通过专注于基于大型视频数据集的新型视图合成和多视图图像生成,为该领域做出了贡献。尽管取得了这些进展,但仍有几个挑战需要进一步研究:1)有限的泛化能力:许多方法在跨不同数据集和对象类别时泛化能力不足。2)在复杂几何形状中挣扎:准确渲染具有复杂几何形状或无纹理表面的物体。由于语言提示可以为生成提供更多的先验知识,我们相信它也可以通过将LLMs整合到流程中来增强多视图一致性以及生成质量。

4.1.5 多模态生成的统一训练

多模态生成定义为同时在不同模态中创建内容的能力,包括图像、视频、3D对象和音频。目前,大多数方法[10]、[44]、[68]、[69]、[81]、[110]、[251]、[341]只关注一个方面,如文本到图像或文本到视频合成。这不可避免地引发了思考:一个单一的模型是否能够拥有生成多种模态的能力?一些最近的工作[133]、[270]、[381]、[520]–[522]在文本、图像、视频、音频和其他模态的特征对齐方面取得了显著进展。一些多模态智能体[103]、[217]、[218]、[402]、[407]提供了各种模态的惊人生成能力,但它们使用的原子工具没有共同训练。此外,先驱工作[93]、[133]、[134]已经做出了初步努力,探索如何在一个模型中生成多模态内容。然而,尽管取得了这些进展,但在实现多模态生成的有效统一训练方面仍然存在挑战。一个突出的障碍在于不同模态之间的特征对齐,因为每种模态具有不同的统计特性和底层结构,需要强大的对齐机制来确保生成输出的一致性和连贯性。此外,训练过程中的相互干扰构成了一个重大障碍,因为同时优化多种模态可能会导致模态特定目标之间的冲突或竞争,阻碍了整体训练的稳定性和收敛性。此外,多模态数据的固有复杂性带来了计算开销,需要有效的算法和可扩展的架构来高效处理多样化的模态。

追求多模态生成的统一训练代表了AI研究中的一个重要进展,为推进不同领域生成模型的能力提供了巨大的潜力。未来,我们甚至期待能够以交织的方式生成不同模态的模型。

4.1.6 高效的训练和部署策略

在多模态生成中,高效的训练和部署策略仍然需要研究。随着数据集和模型的指数级增长,实现高效训练和部署的挑战变得越来越重要,这符合缩放定律,即训练和部署模型所需的计算资源随着模型大小和数据集大小的增长而迅速增加[523]。高效策略不仅对于降低计算成本至关重要,也使得多模态生成技术能够实时或在资源受限的应用中使用。通过最小化计算开销和资源利用,高效的训练和部署策略不仅降低了时间和能源成本,还提高了可扩展性和可访问性,使不同领域的先进生成能力得以民主化。

为了解决多模态生成中高效训练的挑战,已经提出了几种方法。一些研究探讨了低秩近似技术,如LoRA[225]和Q-LoRA[427],这些技术通过用低秩结构近似权重矩阵来减少模型训练的计算复杂性。此外,混合精度训练[524],涉及在某些计算中使用降低精度(例如,16位浮点)算术,已成为加速训练的强大工具,而不会牺牲模型准确性。尽管它们有效,但这些高效训练技术仍有局限性。低秩近似方法可能会引入近似误差,这些误差会降低生成输出的质量,特别是在需要高保真合成的场景中。同样,混合精度训练可能会遇到数值不稳定问题,尤其是在处理非常大的模型或数据集时,可能导致次优收敛甚至训练失败。

高效的部署策略,如量化[525]–[528]到int8甚至int4精度,为在推理期间减少多模态生成模型的计算和内存需求提供了另一种途径。通过将模型权重和激活量化为较低精度格式,可以实现显著的内存带宽和计算资源节省,从而实现更快的推理和在资源受限设备上的部署。然而,量化也存在问题,特别是在保持模型准确性和生成质量方面。降低模型参数和激活的精度可能导致信息丢失和输出保真度下降,特别是在需要精细细节的复杂多模态合成任务中。

总之,高效的训练和部署策略对于实现多模态生成技术在不同应用中的全部潜力至关重要。通过克服与可扩展性和资源限制相关的挑战,研究人员可以加速多模态生成系统在现实场景中的应用,为内容创作、人机交互等领域解锁新的可能性。

4.1.7 伦理安全的内容生成

尽管有许多工作探索如何加强文本和图像生成模型的安全性[446][447][448],但视频生成模型能力的提升应该引起安全关注。由于像Deepfakes这样的安全问题的出现[457],即使在使用以前功能较弱的视频模型时,视频模型能力的提升放大了潜在风险的社会影响。对抗性攻击已经证明了从开源模型到商业闭源模型的有效转移性[433]。未来的商业闭源模型应该考虑防范来自开源模型的攻击,例如通过实施相应的对抗性令牌检测机制。同时,也可以努力减轻可转移攻击的影响,如通过减少商业模型与开源模型在网络架构、数据使用和权重方面的相似性。

目前,大多数研究文章都集中在从个体角度确保安全性,如检测[446]、对齐[450]、事后检查[529]等。这些方法通常各有优缺点。例如,检测技术可以快速检查,但可能会忽略某些漏洞。对齐方法也不能保证用于训练对齐的数据涵盖了所有安全案例。此外,事后检查可能计算成本高昂,尤其是在生成图像和视频时。还没有多少工作将这些技术整合到一个整体系统中,以确保大型生成模型的安全性。例如,系统可以先检测用户输入,然后同时应用安全对齐的模型,并在输出上进行安全检查以确定是否继续。整合这些技术可以提高效率和安全性。

4.2 应用前景

在本节中,我们努力为多模态生成模型的应用构建蓝图。

4.2.1 语义音频合成

语义音频合成涉及根据语义描述或上下文线索生成音频信号,从而能够创建具有特定特征或属性的沉浸式听觉体验。多模态生成模型通过利用来自其他模态的上下文信息,如文本或图像,提供了一种有前景的方法。例如,可以使用在多模态数据上训练的生成模型将声音景观或音乐作品的文本描述转换为音频波形。同样,描绘场景或环境的图像或视频可以通知生成相应的音频伴奏,增强多媒体内容的真实感和丰富性。通过整合跨模态的语义信息,多模态生成模型能够创建高度个性化和上下文相关的音频体验,涵盖娱乐、虚拟现实和辅助技术等领域的应用。

4.2.2 多模态叙事

多模态叙事涉及融合不同模态以打造同时吸引多种感官的引人入胜的叙事。这种方法不仅丰富了叙事体验,还为创造性表达和观众参与开辟了新途径。在多模态叙事中,内容的合成可以朝几个方向发展。从文本提示到图像序列,多模态叙事可以从主题、脚本甚至故事大纲开始,这些作为生成互补模态的基础,如文本、图像序列。例如,给定一个关于奇幻冒险的提示,多模态生成模型可以生成生动的图像,描绘角色和场景,制作展示关键事件的动画视频序列,或创作与叙事相配合的主题音乐。从文本提示或图像到视频和音频,在这种情况下,图像作为生成配套文本描述、视频序列或音频叙事的起点。例如,给定一张描绘风景的图像,多模态生成模型可以生成描述场景的文本,制作展示场景动态的视频动画,或创造捕捉氛围声音和氛围的沉浸式音频体验。多模态叙事在增强传统叙事形式和创造沉浸式、多感官体验方面具有巨大潜力,这些体验能够在各种媒介和平台上与观众产生共鸣。通过利用多模态生成模型的能力,叙事者、内容创作者和媒体制作者可以在数字时代解锁新的创造力和参与度维度。

4.2.3 交互式内容设计

交互式内容设计旨在实时创建和操作媒体元素,使用户能够积极参与创作过程。传统上,内容创作过程涉及迭代的构思、设计和完善步骤,通常需要大量的时间和资源。然而,通过基础生成模型提供的交互能力,创作者可以快速探索众多设计可能性,快速迭代概念,并实时完善作品,从而简化整体创作工作流程。通过实现媒体元素的实时交互和操作,可以提高多模态生成模型的效率。创作者可以高效地尝试不同的视觉和听觉元素,探索多样的艺术风格,并在不需要大量手动劳动或专业知识的情况下生成高质量的内容。因此,这不仅加速了生产过程,还最小化了在雇佣额外资源或外包任务时产生的费用。此外,将多模态生成模型整合到交互式内容设计中,有助于创造力的民主化,降低了有抱负的艺术家和设计师的入门门槛。与通常需要熟练掌握复杂软件界面或艺术技能的传统设计工具不同,这些模型提供了直观且易于使用的界面,使来自不同背景的个人能够参与创造性表达。通过使先进的内容创建能力对更多人开放,这些工具促进了创作社区的包容性和多样性,使更广泛的声音得以被听到。展望未来,多模态生成模型的发展为交互式内容设计的未来发展带来了激动人心的前景。随着进步不断扩大不同模态生成内容的范围和保真度,我们可以预期在虚拟现实、增强现实和沉浸式叙事等领域的创新机会将更加丰富。此外,旨在提高这些模型的可解释性、可控性和可扩展性的研究工作将进一步推动它们在不同创意领域的应用,为我们构思、设计和与数字内容互动的方式带来变革性的变化。

4.2.4 3D场景生成

3D场景生成指的是在虚拟世界、游戏、模拟和建筑可视化中创建沉浸式和现实环境的过程。这个应用领域利用多模态生成模型来合成包含对象、纹理、照明和空间布局的复杂3D场景。生成3D场景的能力对娱乐、教育、设计和虚拟现实等各个行业都有深远的影响。在游戏和虚拟环境的背景下,多模态生成模型可以自动化场景创建过程,减少对手动建模和资产创建的依赖。通过输入文本描述或概念草图,开发者可以生成充满交互式对象、角色和氛围效果的整个3D环境。这不仅加速了游戏开发流程,还使得创造动态和沉浸式的游戏体验成为可能。此外,在建筑可视化和设计中,多模态生成模型可以协助建筑师、城市规划师和设计师可视化和探索不同的设计选项。通过输入建筑蓝图或设计参数,设计师可以生成建筑物、景观和室内空间的真实3D渲染图,允许快速迭代和探索设计概念。这促进了设计过程中涉及的利益相关者之间的协作、决策和沟通。通过利用多模态生成模型的能力,3D场景生成可能会彻底改变我们创建、体验和与虚拟环境互动的方式。无论是在游戏、模拟还是建筑可视化中,以编程方式生成沉浸式和现实3D场景的能力为创造力、探索和虚拟世界中的叙事开辟了新的可能性。

4.2.5 可定制化头像

可定制化头像代表用户的数字表现形式,可以根据个人喜好、身份和特征进行个性化和调整。多模态生成模型通过综合多种媒体类型,如图像、文本和音频,提供了一种引人注目的方法来创建栩栩如生和富有表现力的头像。例如,经过多模态数据训练的生成模型可以根据文本描述或用户偏好生成逼真的头像图像,整合如面部特征、服装风格和表情等细节。同样地,可以使用语音合成技术生成基于音频的头像,使头像能够使用自然声音与用户交流,反映他们的个性或偏好。通过在多个模态上创建可定制的头像,多模态生成模型使用户能够在虚拟环境中表达自己,促进社交互动、游戏和虚拟通信平台的深度参与和个性化。目前,有几个方面可以进一步研究:1) 个性化和定制化:多模态生成模型可以生成与用户非常相似的头像,基于输入参数如面部特征、身体类型和服装偏好。用户可以实时使用直观的界面定制他们的头像,调整发型、面部表情和配饰等属性。2) 情感表达和肢体动作:由多模态模型生成的头像可以展现广泛的情绪表达、手势和身体动作,增强了在虚拟环境中传达非语言交流线索的能力。用户可以动态控制他们头像的行为,允许在虚拟世界中进行更沉浸式的社交互动和协作体验。3) 与虚拟环境的整合:可定制的头像可以无缝集成到各种虚拟环境中,包括社交平台、在线游戏和虚拟现实应用程序。用户可以使用他们的头像在这些环境中导航,实时与其他用户和对象互动,培养数字空间中的存在感和归属感。

4.3 走向世界模型

世界模型[530]–[534]最近成为热门话题。许多著名研究人员表示,世界模型将在可预见的未来实现,全世界的研究人员对此发展寄予厚望。我们发现,调查中提到的所有主题与世界建模的主要组成部分完全对应,包括视觉、听觉和语音等感知模态,以及空间理解和生成。一旦世界模型发展到可用阶段,它们将为众多行业带来新的可能性。我们在这里强调几个核心应用作为参考。

多模态教育和通信:世界模型为革命性教育和通信提供了巨大潜力,通过促进多模态学习体验和沉浸式互动。通过整合文本、图像、音频和视频等多样化的感官模态,这些模型能够创建丰富的教育内容,以满足不同的学习风格和偏好。此外,它们使学习者能够更直观和互动地参与复杂概念和环境,从而增强理解和记忆。此外,世界模型通过合成自然和富有表现力的多模态对话,促进无缝通信,在虚拟学习环境和在线协作平台中培养更具吸引力和个性化的互动。

电影生成:世界模型在电影生成中的应用代表了电影制作的范式转变,为电影制作者提供了前所未有的创造自由和灵活性。通过利用多模态生成技术,电影制作者可以无缝整合对话、视觉效果、声音效果和音乐等各种元素,创造出与观众产生更深层次共鸣的沉浸式电影体验。此外,世界模型能够生成动态和个性化的叙事,以适应个别观众的偏好,从而增强观众的参与度和沉浸感。这些模型还促进了探索替代叙事格式和实验性电影制作技术的探索,推动了电影创作和表达的边界。

元宇宙:元宇宙的出现为利用世界模型创造沉浸式和互动的虚拟世界提供了激动人心的机会。通过合成包括视觉、听觉和触觉反馈在内的多模态感官体验,这些模型能够创造出高度真实和沉浸的虚拟环境,模糊了物理和数字现实之间的界限。此外,世界模型促进了智能虚拟代理和NPC的发展,它们展现出栩栩如生的行为和互动,增强了元宇宙中的存在感和社会沉浸感。此外,这些模型使用户能够定制和个性化他们的虚拟体验,在数字世界中培养创造力和探索。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值