大模型开发 - 一文搞懂Encoder-Decoder工作原理

不懂Encoder-Decoder,何以深入序列数据处理?

本文将从Seq2Seq工作原理Attention工作原理、Transformer工作原理三个方面,带您一文搞懂Encoder-Decoder工作原理

Encoder-Decoder工作原理

一、Seq2Seq工作原理

Seq2Seq(Sequence-to-sequence):输入一个序列,输出另一个序列

在2014年,Cho等人首次在循环神经网络(RNN)中提出了Seq2Seq(序列到序列)模型。与传统的统计翻译模型相比,Seq2Seq模型极大地简化了序列转换任务的处理流程。

核心思想:

1)编码器(Encoder):使用一个循环神经网络(RNN)作为编码器(Encoder),读取输入句子,并将其压缩成一个固定维度的编码。

2)解码器(Decoder):使用另一个循环神经网络(RNN)作为解码器(Decoder)读取这个编码,并逐步生成目标语言的一个句子。

Seq2Seq

Seq2Seq模型通过端到端的训练方式,将输入序列和目标序列直接关联起来,避免了传统方法中繁琐的特征工程和手工设计的对齐步骤。这使得模型能够自动学习从输入到输出的映射关系,提高了序列转换任务的性能和效率。

Seq2Seq

工作原理:Seq2Seq模型中的编码器使用循环神经网络将输入序列转换为固定长度的上下文向量,而解码器则利用这个向量和另一个循环神经网络逐步生成输出序列。

Seq2Seq的工作原理

Encoder(编码器):

1)编码器是Seq2Seq模型中的一部分,负责将输入序列转换为固定长度的上下文向量。

2)它使用循环神经网络(RNN)或其变体(如LSTM、GRU)来实现这一转换过程。

3)在编码过程中,编码器逐个读取输入序列中的元素,并更新其内部隐藏状态。

4)编码完成后,编码器将最终的隐藏状态或经过某种变换的隐藏状态作为上下文向量传递给解码器。

Decoder(解码器):

1)解码器是Seq2Seq模型中的另一部分,负责从上下文向量生成输出序列。

2)它同样使用循环神经网络(RNN)或其变体(如LSTM、GRU)来实现生成过程。

3)在每个时间步,解码器根据上一个时间步的输出、当前的隐藏状态和上下文向量来生成当前时间步的输出。

4)解码器通过逐步生成输出序列中的每个元素,最终完成整个序列的生成任务。

Seq2Seq的工作原理

二、Attention工作原理

Attention Mechanism(注意力机制)Attention Mechanism是一种在深度学习模型中用于处理序列数据的技术,尤其在处理长序列时表现出色。最初引入注意力机制是为了解决机器翻译中遇到的长句子(超过50字)性能下降问题。

传统的机器翻译在长句子上的效果并不理想,因为固定长度的向量难以包含句子的所有语义细节。注意力机制的核心思想是在生成每个输出词时,模型都能够关注到输入序列中的相关部分。

核心逻辑:从关注全部到关注重点

1)Attention机制处理长文本时,能从中抓住重点,不丢失重要信息

2)Attention 机制像人类看图片的逻辑,当我们看一张图片的时候,我们并没有看清图片的全部内容,而是将注意力集中在了图片的焦点上。

3)我们的视觉系统就是一种 Attention机制,将有限的注意力集中在重点信息上,从而节省资源,快速获得最有效的信息。

Attention Mechanism

工作原理:通过计算Decoder的隐藏状态与Encoder输出的每个词的隐藏状态的相似度(Score),进而得到每个词的Attention Weight,再将这些Weight与Encoder的隐藏状态加权求和,生成一个Context Vector。

Attention的工作原理

Encoder(编码器):

1)输入处理:原始输入是语料分词后的token_id被分批次传入Embedding层,将离散的token_id转换为连续的词向量。

2)特征提取:将得到的词向量作为输入,传入Encoder中的特征提取器(Feature Extractor)。特征提取器使用RNN系列的模型(RNN、LSTM、GRU),这里代称为RNNs。为了更好地捕捉一个句子前后的语义特征,使用双向的RNNs。双向RNNs由前向RNN和后向RNN组成,分别处理输入序列的前半部分和后半部分。

3)状态输出:两个方向的RNNs(前向和后向)各自产生一部分隐藏层状态。将这两个方向的隐藏层状态拼接(concatenate)成一个完整的隐藏状态hs这个状态hs包含了输入序列中各个词的语义信息,是后续Attention机制所需要的重要状态值。

Encoder(编码器)

Decoder(解码器):

1)输入与隐藏状态传递:在Decoder的t-1时刻,RNNs(如LSTM或GRU)输出一个隐藏状态h(t-1)

2)计算Score:在t时刻,Decoder的隐藏状态h(t-1)与编码部分产生的每个时间步的隐藏状态h(s)(来自双向RNNs的拼接状态)进行计算,以得到一个Score。

3)计算Attention Weight:将所有计算得到的Score进行softmax归一化,得到每个输入词对应的Attention Weight。

计算Score、Attention Weight

4)计算Context Vector:使用得到的Attention Weight与对应的h(s)进行加权求和(reduce_sum),得到Context Vector。这个Context Vector是输入序列中各个词根据当前Decoder隐藏状态重新加权得到的表示。这个Vector包含了输入序列中重要信息的加权表示,用于指导Decoder生成当前时刻的输出。

计算Context Vector

三、Transformer工作原理

Transformer:通常 Attention 会与传统的模型配合起来使用,但 Google 的一篇论文《 Attention Is All You Need 》中提出只需要注意力就可以完成传统模型所能完成的任务,从而摆脱传统模型对于长程依赖无能为力的问题并使得模型可以并行化,并基于此提出 Transformer 模型。

注意力机制的演化过程

Transformer架构:主要由输入部分(输入输出嵌入与位置编码)、多层编码器、多层解码器以及输出部分(输出线性层与Softmax)四大部分组成。

Transformer架构

输入部分:

1)源文本嵌入层:将源文本中的词汇数字表示转换为向量表示,捕捉词汇间的关系。

2)位置编码器:为输入序列的每个位置生成位置向量,以便模型能够理解序列中的位置信息。

3)目标文本嵌入层(在解码器中使用):将目标文本中的词汇数字表示转换为向量表示。

编码器部分:

1)由N个编码器层堆叠而成。

2)每个编码器层由两个子层连接结构组成:第一个子层是一个多头自注意力子层,第二个子层是一个前馈全连接子层。每个子层后都接有一个规范化层和一个残差连接。

解码器部分:

1)由N个解码器层堆叠而成。

2)每个解码器层由三个子层连接结构组成:第一个子层是一个带掩码的多头自注意力子层,第二个子层是一个多头注意力子层(编码器到解码器),第三个子层是一个前馈全连接子层。每个子层后都接有一个规范化层和一个残差连接。

输出部分:

1)线性层:将解码器输出的向量转换为最终的输出维度。

2)Softmax层:将线性层的输出转换为概率分布,以便进行最终的预测。

工作原理:左边是N个编码器,右边是N个解码器,图中Transformer的N为6。

Transformer工作原理

Encoder(编码器):

1)图中Transformer的编码器部分一共6个相同的编码器层组成。

2)每个编码器层都有两个子层,即多头自注意力层(Multi-Head Attention)层和逐位置的前馈神经网络(Position-wise Feed-Forward Network)。

3)在每个子层后面都有残差连接(图中的虚线)和层归一化(LayerNorm)操作,二者合起来称为Add&Norm操作。

Encoder(编码器)架构

Decoder(解码器):

1)图中Transformer的解码器部分同样一共6个相同的解码器层组成。

2)每个解码器层都有三个子层,掩蔽自注意力层(Masked Self-Attention)、Encoder-Decoder注意力层、逐位置的前馈神经网络。

3)同样,在每个子层后面都有残差连接(图中的虚线)和层归一化(LayerNorm)操作,二者合起来称为Add&Norm操作。

Decoder(解码器)架构

转自:大模型开发 - 一文搞懂Encoder-Decoder工作原理 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值