Transformer架构解析——认识Transformer架构

一、Transformer架构解析

1.Transformer总体架构可分为四部分

输入部分、输出部分、编码器部分、解码器部分。

如图所示:左边为编码器部分,右边为解码器部分。

1.1输入部分:

  • 源文本嵌入层及其位置编码器
  • 目标文本嵌入层及其位置编码器

源文本先进入一个Embedding(文本嵌入层)进行一个位置编码器的处理。

目标文本进入一个Embedding进行一个位置编码器的处理。

1.2输出部分: 

  • 线性层
  • softmax层

1.3编码器部分:

  • 由N个编码器层堆叠而成
  • 每个编码器层由两个子层连接结构组成
  • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
  • 第二个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接

N为超参数,由程序员指定

残差链接:可以跨层向上传递信息

1.4解码器部分

  • 由N个编码器层堆叠而成
  • 每个编码器层由三个子层连接结构组成
  • 第一个子层连接结构包括一个多头自注意力子层(加了一个mask掩码)和规范化层以及一个残差连接
  • 第二个子层连接结构包括一个多头注意力子和规范化层以及一个残差连接
  • 第二个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接

小节总结:

  • 学习Transformer模型的作用:
  • 基于seq2seq架构的transformer模型可以完成NLP领域研究的典型任务如机器翻译文本生成等同时又可以构建预训练语言模型,用于不同任务的迁移学习
  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Transformer是一种基于自注意力机制的序列到序列模型,通常用于机器翻译、文本生成等任务。其主要思想是利用注意力机制来捕捉输入序列中不同位置之间的依赖关系,从而更好地对整个序列进行建模。 Transformer架构由编码器和解码器两部分组成,下面分别介绍它们的结构: 1. 编码器: 编码器由多层相同的模块组成,每个模块都包含两个子层:多头自注意力机制和前馈神经网络。其中,自注意力机制用于捕捉输入序列中不同位置之间的依赖关系,前馈神经网络则用于对每个位置的特征进行映射和变换。 自注意力机制的实现主要包括以下三个步骤: (1)计算注意力权重:对于每个输入位置,根据其与其他位置的相似度计算出相应的注意力权重; (2)加权求和:根据计算出的注意力权重对所有输入位置进行加权求和,得到每个位置的自注意力表示; (3)多头机制:为了更好地捕捉不同类型的依赖关系,通常采用多头机制对注意力权重进行计算。 前馈神经网络的实现主要包括两个全连接层和一个激活函数,用于对每个位置的自注意力表示进行映射和变换。 2. 解码器: 解码器也由多层相同的模块组成,每个模块同样包含两个子层:多头自注意力机制、多头编码器-解码器注意力机制和前馈神经网络。其中,多头自注意力机制和前馈神经网络的作用与编码器中的相同。不同之处在于,解码器还需要利用编码器-解码器注意力机制来对输入序列和输出序列之间的依赖关系进行建模。 编码器-解码器注意力机制的实现主要包括以下三个步骤: (1)计算注意力权重:对于每个输出位置,根据其与输入序列中所有位置的相似度计算出相应的注意力权重; (2)加权求和:根据计算出的注意力权重对所有输入位置进行加权求和,得到每个位置的编码器-解码器注意力表示; (3)多头机制:同样采用多头机制对注意力权重进行计算。 最终,解码器利用编码器的输出和自身的输出来进行计算,从而生成最终的目标序列。 以上就是Transformer架构的主要内容,其采用自注意力机制和多头机制来处理序列数据,具有更好的建模能力和泛化能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值