Transformer模型框架

Transformer 模型框架源自2017年论文 《Attention is All You Need》

Self-Attention

1、Transformer 结构

Transformer 整体框架由 Encoder 和 Decoder 组成,本质上是 Self-Attention 模型的叠加。

在这里插入图片描述

2、Encoder

Encoder 的主要作用是让机器更清楚的了解到句子中词的特征,或词与词的关系(图就表现在像素上)。Encoder 模型中通过输入词向量 ,输出新的词向量。

在这里插入图片描述

POSITIONAL ENCODING:让词向量蕴含词的相对位置信息。
残差结构的作用:避免出现梯度消失的情况。
Layer Norm 的作用:为了保证数据特征分布的稳定性,并且可以加速模型的收敛。

3、Decoder

Decoder 的主要作用根据 Encoder 了解到词的特征,预测新的词。

在这里插入图片描述

Decoder 中的 Self-Attention 采用 Masked Self-Attention ,在翻译上体现在已经翻译的结果将会对下一个要翻译的词都会有一定的贡献。

4、Transformer 工作流程

以翻译 “我是学生” 将德语翻译为英语为例:

在这里插入图片描述

题外话:第一性原理、本质

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值