【自然语言处理|Transformer框架-01】:Transformer背景介绍及其架构

1 Transformer背景介绍

1.1 Transformer诞生

Transformer是一种在自然语言处理领域中引起了革命性变革的模型架构。它首次被提出于2017年的论文《Attention is All You Need》中,由Google的研究团队提出。

这篇论文开创了一种全新的模型架构,成为了许多自然语言处理任务的基础,如机器翻译、文本摘要、对话生成等。随后许多基于Transformer的变种模型也相继涌现,例如BERT、GPT等,进一步推动了自然语言处理领域的发展。

2018年10月,Google发出一篇论文《BERT: Pre-training of Deep Bidirectional Transformers for Language
Understanding》, BERT模型横空出世, 并横扫NLP领域11项任务的最佳成绩!

1.2 Transformer优点

相比之前占领市场的LSTM和GRU模型,Transformer有两个显著的优势:

  1. Transformer能够利用分布式GPU进行并行训练提升模型训练效率
  2. 在分析预测更长的文本时, 捕捉间隔较长的语义关联效果更好

RNN、LSTM、Transformer对长文本提取事物特征效果对比

  1. RNN和LSTM文本长度20~30之间效果下降显著
  2. transformer超过句子长度40以后也能保持较好效果

在这里插入图片描述
在这里插入图片描述

  • 有关SOTA model:state-of-the-art model,并不是特指某个具体的模型,而是指在该项研究任务中,目前最好最先进的模型

在这里插入图片描述

  • NLP是人工智能的一个子域
  • 2个核心任务:自然语言理解(Natural Language Understanding,NLU)和自然语言生成(Natural Language Generation,NLG)
  • Bert模型用于自然语言理解,GPT用于自然语言生成

2 Transformer架构

2.1 Transformer结构作用

  • 基于seq2seq架构的transformer模型可以完成NLP领域研究的典型任务,如机器翻译, 文本生成等;
    • Encoder
    • Decoder
    • 中间语义张量C
  • 又可构建预训练语言模型,用于不同任务的迁移学习
    • 迁移学习: 可以简单理解为,调用别人已经训练好的模型,模型已经学习了很多知识。

2.2 Transformer总体架构图

任务需求:

  • 假设使用Transformer模型架构,处理从一种语言文本到另一种语言文本的翻译工作
  • 以这个案例为背景,介绍Transformer架构

在这里插入图片描述

  1. 输入部分
    • 源文本嵌入层及其位置编码器
    • 目标文本嵌入层及其位置编码器

在这里插入图片描述

  1. 输出部分

    • 线性层
    • softmax层
      在这里插入图片描述
  2. 编码部分

    • 由N个编码器层堆叠而成
    • 每个编码器层由两个子层连接结构组成
      • 第一个子层连接结构包括一个多头注意力子层和规范化层以及一个残差连接
      • 第二个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接

在这里插入图片描述
编码器部分层和层是如何连接:
在这里插入图片描述

  1. 解码器部分
  • 由N个解码器层堆叠而成
  • 每个解码器层由三个子层连接结构组成
    • 第一个子层连接结构包括一个多头自注意力子层和规范化层以及一个残差连接
    • 第二个子层连接结构包括一个多头注意力子层和规范化层以及一个残差连接
    • 第三个子层连接结构包括一个前馈全连接子层和规范化层以及一个残差连接
      在这里插入图片描述

多个解码器层进行连接:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值