理解大语言模型(一)——什么是注意力机制

相关说明

这篇文章的大部分内容参考自我的新书《解构大语言模型:从线性回归到通用人工智能》,欢迎有兴趣的读者多多支持。

《深度循环神经网络》这篇文章介绍了编码器和解码器结构(Encoder and Decoder),这种结构通常用于处理语言翻译问题。然而,在实践中,我们发现这种结构存在明显的瓶颈,导致模型效果受到影响。为了解决这一问题,学术界引入了注意力机制(Attention Mechanism)。这一机制被认为是大语言模型设计中最重要的创新之一,也是本文的重点讨论内容。

在阅读本文之前,推荐先参考如下的文章获取一些背景知识:

这篇文章也是搭建和理解大语言模型的关键:

大语言模型最重要的设计是注意力机制(Attention Mechanism)。这一设计能够高效地捕捉语言中错综复杂的依赖关系,使模型深刻理解语言。语言是人类智慧的栖息之所。一旦模型能够出色地理解语言,尤其是多种语言,那么它将理解语言中蕴含的人类智慧,这在一定程度上解释了为什么模型能在多个领域呈现出令人惊艳的效果1

本文将首先追溯注意力机制的历史,介绍其设计初衷。接着,深入研究在不同的训练模式下注意力机制的变化,其中包括自回归、自编码和序列到序列(对这些概率不熟悉的读者可以参考这篇文章)。最后,通过代码示例高效实现注意力机制,为搭建大语言模型奠定基础。

一、设计初衷

设计注意力机制最初是为了解决翻译问题。《深度循环神经网络》已经简要介绍了编码器-解码器结构,如图1左侧所示,其中包含两个标准循环神经网络,它们相互协作,通常用于处理翻译任务。然而,这个结构存在一个明显的不足,即两个组件之间的唯一交互是编码器在处理完整个输入文本后传递给解码器的隐藏状态,也就是一个向量。从拟人的角度来看,编码器通过阅读文本,将文本的知识浓缩成了一个向量,然后解码器根据这个向量将文本翻译成另一种语言。这个处理过程中最重要的假设是:能使用一个向量完整地表示一个文本。换句话说,无论文本多长,文本中的所有内容都可以被压缩成一个向量,这显然是不够合理的,尤其是对于长文本,这种方式容易丢失大量的信息。

因此,学术界对这一模型框架进行了改进,引入了注意力机制。在编码器-解码器结构中,原本使用单一的隐藏状态来传递信息,但会导致模型性能受限。受此启发,在注意力机制中,编码器在每一步产生的隐藏状态都直接参与到解码器的计算中,如图1右侧所示。

在这里插入图片描述

图1

具体来说,注意力机制利用当前输入的数据和编码器的所有隐藏状态,计算一个额外的背景向量(Context Vector),用于辅助解码器的预测。这一过程可以分为3个关键步骤。

  1. 计算对齐分数(Alignment Score):在翻译过程中,一个至关重要的任务是确定接下来要翻译的内容与原文中的哪个位置最相关。以图11-2为例,当解码器的输入是“I”时,需要准确地确定接下来的翻译应该与原文中的“爱”对齐。为了达到这一目的,需要将解码器的当前输入与编码器的所有隐藏状态进行逐一配对,然后计算得到相应的对齐分数2。沿用图中的数学符号,这一过程可以被表示为公式(1)。
    s i , j = f ( I i , H j ) (1) s_{i,j}= f(I_i,H_j) \tag{1} si,j=f(Ii,Hj)(1)
  2. 将对齐分数转换为权重:对齐分数的大小反映了在翻译过程中应该将多少注意力放在相应的位置上,这正是注意力机制这个名字的由来。由于每个位置都有相应的对齐分数,我们需要将这些分数合理地转化为权重,以确保它们的总和等于1,且每个分量都是正数。为了满足这一要求,通常使用Softmax函数。整个转换过程可以用公式(2)来表示。
    W i = S o f t m a x ( S i ) W i = ( w i , 1 , w i , 2 ⋯ , w i , n ) ; S i = ( s i , 1 , s i , 2 , ⋯ , s i , n ) (2) W_i= Softmax(S_i ) \\ W_i=(w_{i,1},w_{i,2}⋯,w_{i,n} ); S_i=(s_{i,1},s_{i,2},⋯,s_{i,n} ) \tag{2} Wi=Softmax(Si)Wi=(wi,1,wi,2,wi,n);Si=(si,1,si,2,,si,n)(2)
  3. 加权平均以获得背景向量:编码器的隐藏状态本身包含了有关语义的信息。利用第2步中获得的权重,对这些隐藏状态进行加权平均,从而得到背景向量。背景向量综合考虑了注意力的位置和相关的语义信息,为翻译任务提供了出色的特征表示。具体如公式(3)所示3
    C i = ∑ j = 1 n w i , j H j (3) C_i= \sum_{j=1}^n w_{i,j}H_j \tag{3} Ci=j=1nwi,jHj(3)

这就是最初版本的注意力机制4。在这种设计中,模型同时考虑两个文本,一个是输入,另一个是输出。对于输出文本的每个词元(读者可以将其简单理解为中文词语或英文单词),我们在输入文本中寻找相关的注意力位置。然而,这种设定限制了它仅适用于序列到序列模式。为了能在更广泛的场景中使用这个精妙的设计,学术界引入了更通用的注意力机制,这将是下一节将讨论的重点。

二、改进后的注意力机制

如果综合考虑公式(1)到公式(3),会发现注意力机制的核心本质是特征提取,也就是为文本内容找到更好的特征表示,即背景向量。尽管每一步的隐藏状态可以很好地反映文本内容,但它同时参与了权重的计算。这种双重身份容易让它顾此失彼,从而影响模型的性能。为了解决这个问题,下面将暂时离开循环神经网络的框架,借鉴上述3个公式,设计一个改进后的注意力机制。

改进后的注意力机制中仍然区分背景文本和处理文本,不同之处在于,两者可以是同一个文本。为文本中的每个词元引入3个向量,分别为查询向量(Query)、键向量(Key)和数值向量(Value),分别用Q、K和V表示,如图2所示。最终的特征表示是通过以下计算步骤获得的。

  1. Q和K用于计算词元之间的对齐分数。具体来说,将处理文本中的当前输入(使用Q)与背景文本中的每个词元(使用K)逐一匹配,然后计算它们的内积,得到对齐分数。
  2. 基于对齐分数,计算得到权重向量。
  3. 通过权重向量对V进行加权,最终得到背景向量。

图2

图2

注意力机制的核心步骤涉及3个重要向量:Q、K、V。其中,Q代表当前词元需要查询的信息,K代表词元在文本中的背景信息,V代表词元自身的特征。因此,注意力机制可以被非常通俗地理解为:文本内容的特征表示是词元特征的加和平均,权重主要反映词元间的相关关系。这一机制避免了标准循环神经网络的一个缺陷,即难以有效捕捉词元间的关联关系(见图2左侧部分,具体细节请参考关于LSTM的文章)。值得注意的是,背景向量的数学公式(可参考公式(3))与隐藏状态非常相似,因此注意力机制也被视为循环神经网络的一员。

改进后的注意力机制对使用场景没有限制。当处理文本和背景文本不同时,算法被称为交叉注意力(Cross-Attention),它将会被用在序列到序列模式中。当处理文本和背景文本相同时,将其称为自注意力(Self-Attention),它的使用场景是自回归和自编码模式。它们的不同点在于:在自回归模式下,模型仅关注词元左侧的对齐分数(图2中虚线部分被强制设为0),这类注意力被形象地称为单向注意力(Unidirectional Attention);在自编码模式下,计算对齐分数没有这种限制(图2中虚线部分会正常计算),这类注意力被称为双向注意力(Bidirectional Attention)。

三、数学细节与实现技巧

在介绍了注意力机制的核心步骤之后,接下来将深入讨论它的数学细节,以及如何在代码中高效地实现它。

改进的注意力机制将两个向量的内积定义为对齐分数,因此可以利用张量计算来执行注意力机制。详细的算法定义和实现代码如图3所示。前文的理论介绍仅关注单个词元,但实际的代码实现需要尽可能地提升运算效率。因此,假设query、key和value的形状都是(B, T, C),其中B表示批量大小,T表示文本长度,C表示词元特征长度。在这种设定下,图3中的代码能够以并行方式处理批量数据,相比于传统的循环神经网络,这是一项显著的改进。

图3

图3

图3所示的算法在学术上被称为缩放点积注意力(Scaled Dot-Product Attention)5。在具体计算中,有两个特别的细节处理,分别是图11-4中的缩放(Scale)和掩码(Mask),对模型结果和计算效率有很大影响。

  • 缩放:对齐分数等于两个向量的内积,因此向量的长度越长,对齐分数的方差就越大。而对于Softmax函数,如果输入数据的方差很大,它生成的权重分布会过于集中在某一个点,如图4左侧所示,这显然不符合模型的期望。因此,在计算内积后,需要对得到的对齐分数进行归一化处理,以确保它的方差等于1。
  • 掩码:在自回归模式下,词元只能使用位于图11-5左侧的文本背景。这意味着在数学上,用于加权平均的权重矩阵应该是一个上三角矩阵。为此将使用以下数学技巧:将对齐分数矩阵的上三角元素设置为负无穷(或者绝对值很大的负数),然后通过Softmax函数转换得到理想的上三角权重矩阵,如图4右侧所示。

图4

图4


  1. 大语言模型在众多其他领域表现卓越。然而,到目前为止,“为何这些模型如此出色”仍然存在争议,尚无定论。这里提供的是其中一种解释,笔者也倾向于支持这一观点,鼓励感兴趣的读者查阅其他文献提供的解释,以便更深入地了解这一话题。 ↩︎

  2. 对齐分数有多种不同的计算方式,其中一种直观的方法是计算当前输入向量与隐藏状态向量的内积,并将其作为对齐分数。此外,也可以搭建一个简单的神经网络来完成这一计算。 ↩︎

  3. RNN中,隐藏状态可以被解释成词元特征的加和,从形式上来看,这与公式(3)非常相似。因此,背景向量可以被看作隐藏状态的一种改进和升级,将其作为循环神经网络的输入是非常合理的。 ↩︎

  4. 这个设计源自论文“Neural Machine Translation By Jointly Learning To Align And Translate”。 ↩︎

  5. 这是最著名的注意力机制之一,源自论文“Attention Is All You Need”。其他变种的注意力机制都遵循相似的核心原理和设计思想。正如在讨论长短期记忆网络时强调的,理解神经网络的关键在于掌握其核心思想,而不是死记硬背具体的模型结构和公式。 ↩︎

  • 18
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值