Transformer架构

12 篇文章 4 订阅 ¥9.90 ¥99.00

目录

1 概述

2 初识Transformer架构

3 输入部分实现

4 编码器部分实现

掩码张量

注意力机制

多头注意力机制

前馈全连接层

规范化层

子层连结结构

编码器层

编码器

5 解码器部分实现

解码器层

解码器

6 输出部分实现

7 模型构建

Tansformer模型构建

模型的基本测试与运行


1 概述

  •  Transformer的诞生
    • 2018年10月,Google发出一篇论文《BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding》,BERT模型横空出世,并横扫NLP领域11项任务的最佳成绩!
    • 而在BERT中发挥重要作用的结构就是Transformer,之后又相继出现XLNET,roBERT等模型击败了BERT,但是他们的核心没有变,仍是Transformer。
  •  Transformer的优势
    • 相比之前占领市场的LSTM和GRU模型,Transformer能够利用分布式GPU进行并行训练,提升模型训练效率。
    • 在分析预测更长的文本时,捕捉间隔较长的语义关联效果更好。

2 初识Transformer架构

  •  Transformer模型的作用
    • 基于seq2seq架构的transformer模型可以完成NLP领域研究的典型任务,如机器翻译、文本生成等;同时又可以构建预训练语言模型,用于不同任务的迁移学习。
  • 声明
    • 在接下来的架构分析中,我们将假设使用Transformer模型架构处理从一种语言文本到另一种语言文本的翻译工作,因此很多命名方式遵循NLP中的规则。比如:Embeddding层将称作文本嵌入层,Embedding层产生的张量称为词嵌入张量,它的最后一维将称作词向量等。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

OR_0295

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值