多模态大语言模型综述(上)-摘要与技术要点

  • 上:摘要、概念与技术要点实用指南
  • 中:算法实用指南
  • 下: 任务的实用指南(应用)、挑战等

摘要

对多模态语言模型的探索集成了多种数据类型,诸如图像、文本、语言、视频以及其他异构内容。尽管最新的大语言模型在文本任务中表现出现,但他们往往难以处理与处理其他数据类型。 多模态大语言模型通过绑定各种模态来解决这一限制,从而能更全面的理解各类数据。本文首先定义了多模态的概念并考察了多模态算法的历史发展, 然后,我们介绍了一系列多模态的产品,重点关注主要科技公司在这一领域的努力。这将是一份实用指南,一份深入了解多模态技术方面的指南. 此外,我们还提供了一个最新算法以及常用数据集的汇编,为研究人员的实验与评估提供宝贵资源。最后, 我们探索了多模态的应用并讨论了与他们发展的相关挑战。通过解决这些方面,本文的旨在促进多模态语言及其在各领域的潜力有一个较深的理解.

索引术语: 模态,语言模型,多模态,大模型,调查。

II 相关概念

多模态是指通过多种模态表达或感知复杂事物。

image.png

多模态可以分为 同质模态(如两个不同的摄像机中的图像捕获)和异质模态(如图像和文本语言间的关系). 多模态数据。从语义感知的角度来看,多模态数据指的是各种感知模型的集成,诸如视觉、听觉、触觉和嗅觉的输入, 并形成统一且有意义的环境表现[10]。从数据感觉角度来看,多模态数据可被视为多种不同类型数据的组合,比如图像数据、数字数字、文本、符号、音频、时间序列,或由集合、树和图像组成的复杂数据结构的数据,甚至是来自不同的数据或知识库的各种信息资源的组合。探索和分析异构数据源可以理解为多模态的学习。

使用多模态数据可以更全面和整体地表示事物,使多模态研究成为一个重要的研究领域。通过利用多模态方法,在情感分析机器翻译自然语言处理前沿生物医学研究[11] 等领域取已得了重大突破。

III 技术要点的实用指南

多模态大模型的技术要点包括但不限于知识表示、学习目标选择、模型结构、信息融合、提示的使用,如下图所示:

image.png

知识表示(Knowledge representation)

文本和图像都需要标记化(tokenization)和嵌入(embedding)。Tokens(令牌)是模型的基本输入单位,而embeddings(嵌入)是用于计算的Tokens(令牌)的矢量表示。在文本的情况下,Word2Vec[27]通常用于标记化,包括一些方法,如CBOW和Skip gram。尽管Word2Vec在计算上是高效的,但它受到词汇限制。因此,子字标记化方法,如字节对编码[28],将字划分为更小的单元。

这种方法已应用于各种transformer模型,如BERT。相比之下,图像标记化(image tokenization) 比文本更复杂。它可以分为三种类型[29],包括基于区域、基于网格和基于补丁。基于区域(Regionbased) 的方法利用预先训练的对象检测器来提取特征。基于网格的方法直接应用卷积神经网络从图像中提取基于网格的信息。而基于补丁的方法包括将图像分割成更小的块,并从中提取线性投影块。根据METER模型[30]的数据,优化视觉特征方面对结果的影响比优化文本方面大得多。在多模态预训练模型的构建中,视觉特征的嵌入层或复杂性超过了文本特征,突出了视觉信息的重要性。多模态模型可以从视觉特征中学习更多的知识。

学习目标 - Learning objectives selection

它在多模态预训练中至关重要。多模态预训练中常见的学习任务包括:

  • ITC(image-text contrast 图像-文本对比)
  • MLM(masked language modeling,掩蔽语言建模)
  • MVM(masked visual modeling,掩蔽视觉模型)
  • TM(mage-text matching,图文匹配)[31]。

ITC包括通过对比学习构建正样本对和负样本对,以对齐图像和文本。此外,通过利用MLM和MVM技术,它可以通过从语言知识和视觉线索的组合中重建掩蔽的语言表征来学习推断语言和视觉数据之间的微妙联系。通过这种方式,它可以提高理解和生成多模态内容的能力。TM可以看作是一个二进制分类任务,旨在预测图像和文本对是否匹配。

一般来说,组合使用不同的学习目标可以提高多模态模型的性能。例如,在UNITER模型中,纳入更多的学习目标通常会带来更好的结果。UNITER利用多个学习目标,如MLM和ITC,并在各种专业场景中表现良好。然而,使用过多的学习目标可能并不总是产生有利的结果。这在METER[30]的实验中得到了验证。

模型结构-Model construction

根据模型结构的不同,多模态模型可分为纯编码器(encoder-only)模型和编解码(encoder-decoder)模型。

encoder-only

encoder-only:仅使用Transformer的编码器的编码器部分。多模态输入由编码器直接处理以产生输出。仅编码器模型的常见示例包括CLIP[23]和ALBEF[32],它们适用于图像文本检索等任务,但不适用于图像字幕等任务

encoder-decoder

  • encoder-decoder:包含了Transformer的编码器和解码器部分。decoder接收先前生成的令牌及其自己的输出,以自动回归地生成输出序列。encoder-decoder模型,如T5[33]和SimVLM[34],利用了解码器(decoder)的功能,适用于生成任务,但可能不适用同样适用于图像文本检索等任务

信息融合 - Information fusion

在分别对不同的模态进行编码之后,有必要设计一种用于多模态编码的编码器。根据不同的融合方法,多模态模型可分为融合编码器(fusion encoder)模型和双编码器(dual encoder)模型[35]。

融合编码-fusion encoder

fusion encoder利用融合方法在模态之间交互。通过自注意或交叉注意操作,fusion encoder生成模态的融合表示。适用于推理任务

融合方法主要包括单流和双流方法。单流方法假设两种模态之间存在简单的对齐或相关性,并在将它们连接之前将自注意机制直接应用于模态。双流模型假设模态内和跨模态交互应分别建模,以使用交叉注意力机制获得更好的多模态表示。

fusion encoder对不同级别的跨模态交互进行建模,并在某些推理任务中取得了良好的性能。然而,在图像文本检索等任务中,对所有图像文本对的交互进行编码会导致推理速度变慢。

双编码-dual encoder

dual encoder采用单独的single-modal encoders(单模编码器)对两种模态(two modalities)进行编码。在充分编码后,使用简单的点积或浅关注层来计算它们之间的相似性得分,而不依赖于复杂的Transformer结构。适用于检索任务

融合编码器适用于推理任务,而双编码器适用于检索任务。我们结合不同的模型架构或信息融合方法来增强多模态模型的能力。这也是实现多模态统一的机制。例如,VLMO采用“三专家”方法,对纯图像、纯文本和图像文本数据进行预训练,以处理不同的模态,并在推理和检索等任务中取得了良好的性能[36]。

提示的使用

提示方法主要用于减少下游任务中预训练和微调之间的差距。通过修改下游任务的模板,prompt旨在最大限度地减少预训练和微调之间的差异,从而降低微调成本,提高模型在下游应用中的性能。它具有处理零或小数据样本的能力,已被广泛用于各种LLM[37]。提示方法在多模态预训练任务中也起着至关重要的作用。

例如在可视化ChatGPT[38]中,提示管理器用于生成有助于ChatGPT理解和生成相关图像的信息提示。在CLIP中,提示方法通过生成文本的信息提示应用于零样本任务,从而提高了性能[23]。

I 论文介绍

多模态模型是组合了多种数据类型的模型,这些数据类型包含图像,文本,音频等内容。传统的大语言模型(LLM)[1], [2] 早期主要训练并应和于文本数据,他们对除文本之外的其他数据类型是的理解存在局限性。纯文本的LLMs,诸如GPT-3 [3], BERT [4], and RoBERTa [5], 擅长文本生成与编码,但他们缺少一个对其他数据类型的全面理解。为了解决这个问题,多模态的LLMs集成了多种数据类型,克服了纯文本模型的局限性并且为处理多种数据类型开辟了可能性。GPT-4[6]是多模态LLM很好的例子。他能接收文本与图像两种式的输入,在各种基准测试中展示出的人的水平性能。多模态感知是获取一般人工智能的基础组件,对于知识的获取与真实世至关重要。并且,多模态输入的应用极大了扩展了语言模型在高价值领域的潜力,诸如多模态机器人技术、文档智能以及机器人技术。研究表明,多模态感知的本地支持为多模态在新任务中的应用提供了机会。通过大量实验,多模态LLMs在常识推理方面方面已经展示出了优于单模态模型的性能, 突出了跨模态转移知识对获取知识的好处。

近年来,多模态模型的发展展示了更多的应用可能性,除了文本生成模型之外,多模态在人机交互,机器人控制,图像检索,语音生成等领域也得到了越来越多的应用。然而将LLMs能力转移到多模态文本和图像领域仍然是一个活跃的研究领域,因为纯文本的训练通常仅在纯文本的语料上训练,缺乏对视觉信号的感知能力。对于多模态模型的综述已有一些,但是每个文章都有不同的重点。Summaira et al. [7] 通过对进行模型分类,详细介绍了不同模型的应用。Wang等人[8]呈现了一份在多模态大语言模型中最新算法以及最近实验中使用的数据集的综合汇编,为读者提供了方便。Yin等人[9]在综述里对近年来出现的各种不同类型的多模态算法进行了分类和区分。

主要贡献

  • 我们从定义多模态模型/算法概念入手,深入研究了多模态算法的发展历史
  • 我们提供了一份与多模态模型相关各种技术的实用指南,包括知识表现,学习目标选择,模型构建,信息融信和提示使用。
  • 我们回顾了多模态模型使用的最新算法以及常用的数据集。
  • 最后,我们探索了几个多模态的应用并讨论了当前发展中的几个关键的挑战。

论文目录

  • 摘要
  • I: INTRODUCE: 介绍
  • II: RELATED CONCEPTS:相关概念
  • III:PRACTICAL GUIDE FOR TECHNICAL POINTS: 技术要点实用指南
  • IV: PRACTICAL GUIDE FOR ALGORITHMS: 算法实用指南
  • V: PRACTICAL GUIDE FOR VARIOUS TASKS:各种任务的实全指南
  • VI:CHALLENGES:挑战
  • VII. CONCLUSION:结论

多模态的发展阶段

多模态研究的发展进程可以确定四个不同的阶段,如下图所示:

image.png

Single modality (1980-2000): 单一模态阶段
主要特点表现为依赖基本的计算能力。核心算法是

  • 基于PCA人脸识别的算法
  • 基于HMM的语音识别

Modality conversion (2000-2010): 模态转换
在这一阶段,研究人员投入了大量的资源来研究人机交互

  • 利用计算机记录和处理会议数据。
  • CALO项目: 介绍chatbot(聊天机器人)技术
  • SSP项目: 分析非语言线索

Modality fusion (2010-2020): 模态融合阶段
在这一阶段,深度学习技术和神经网络的结合导致了该领域的显著进步,算法如下:

  • Ngiam: 多模态融合与分析。例如图像和文本
  • DBMs: 对不同模态(式)之间的依赖关系和交互进行建模。
  • 神经图像字幕生成算法: 分析图像的视觉内容并生成类人描述

Large-scale models(2020-?):大型模型
大规模模型的快速发展为多模态算法提供了新的机遇. 主要算法如下:

  • CLIP: 利用无监督技术处理图像文本数据
  • DALL-E 2: 以CLIP图像嵌为条件使用一个扩散模型
  • BeiT-3:Stands for BERT Pretraining of Image Transformers
  • KOSMOS.1: .遵循说明并在上下文学习中执行
  • PaLM-E: 一种新的视觉语言性能基准,无需特定于任务的微调。

如何学习大模型

现在社会上大模型越来越普及了,已经有很多人都想往这里面扎,但是却找不到适合的方法去学习。

作为一名资深码农,初入大模型时也吃了很多亏,踩了无数坑。现在我想把我的经验和知识分享给你们,帮助你们学习AI大模型,能够解决你们学习中的困难。

我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。

一、AGI大模型系统学习路线

很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。

在这里插入图片描述

二、AI大模型视频教程

在这里插入图片描述

三、AI大模型各大学习书籍

在这里插入图片描述

四、AI大模型各大场景实战案例

在这里插入图片描述

五、结束语

学习AI大模型是当前科技发展的趋势,它不仅能够为我们提供更多的机会和挑战,还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型,我们可以深入了解深度学习、神经网络等核心概念,并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时,掌握AI大模型还能够为我们的职业发展增添竞争力,成为未来技术领域的领导者。

再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。

因此,学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。

  • 22
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
《大模型技术进化论:多模态模型综述》是一篇系统阐述多模态模型技术进化的综述性论文。多模态模型是指通过整合多种不同的数据形式和类型,构建出更复杂、更完整的模型,以提高模型的表现和性能。 该论文首先介绍了大模型技术的背景和发展动力。随着数据规模的快速增长和多源数据的丰富性,传统的单一模态模型已经面临着一系列的挑战,无法完全适应现实世界中的复杂情况。因此,多模态模型的出现成为了解决这一问题的有效手段。 随后,论文针对多模态模型的构建过程进行了详细的讨论。首先介绍了多模态数据的采集与预处理方法,包括各种传感器和设备的应用,以及数据对齐和归一化等技术。然后,论文详细介绍了多模态特征提取、融合和表示学习方法,包括传统的特征提取算法和深度学习方法等。 接着,论文重点讨论了多模态模型在各个领域的应用。例如,在计算机视觉领域,多模态模型能够通过融合图像和文本数据,实现更准确的图像分类和目标检测。在自然语言处理领域,多模态模型能够通过融合文本和语音数据,实现更准确的情感分析和语音识别。此外,还介绍了多模态模型在医学、金融、推荐系统等领域的应用。 最后,论文总结了多模态模型技术的优势和挑战,并展望了未来的研究方向。多模态模型技术的优势在于可以综合利用不同数据源的信息,提高模型的鲁棒性和泛化能力。然而,多模态模型技术面临着数据集规模和计算复杂度的挑战,需要进一步研究和改进相应的算法技术。 综上所述,《大模型技术进化论:多模态模型综述》通过系统的介绍了多模态模型技术的构建过程、应用领域和发展前景,对相关研究和应用人员具有重要的参考价值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值