transformer详解

本文详细介绍了Transformer模型,包括其全局结构(编码器-解码器),位置编码如何处理词序信息,注意力机制如何通过点乘计算相似度,以及残差连接和层标准化的作用。还涉及了BatchNorm和layernorm在处理序列数据中的差异。
摘要由CSDN通过智能技术生成

1.从全局角度概括transformer

在这里插入图片描述

在这里插入图片描述

一个典型的编码器-解码器的结构,类似于sequence-to-sequence
在这里插入图片描述

在这里插入图片描述
这6(可以自己定)个encode,decode在结构上是完全相同的,但是参数不是完全相同的
训练的时候,不是训练了一个encode,然后copy 6次,而是6个encode多在训练
在这里插入图片描述

2.位置编码详细解读

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
RNN是共享一套参数
在这里插入图片描述

transformer是并行处理的,不同于RNN(先处理’我’,再处理‘爱’…),这样做增快了速度,但忽略了单词之间的先后关系
在这里插入图片描述
这里的2i表示偶数,2i+1表示奇数
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
正余弦函数对于同一个位置,同一个pos,不同的向量,使用不同的sin或者cos,体现出的是绝对位置信息
根据公式(2)三角函数的性质,我们可以推导出(3)
以第一行为例,对于‘我爱你’,pos+k代表‘你’,pos代表‘我’,k代表‘爱’
也就是说‘我爱你’中的‘你’可以被pos(‘我’),k(‘爱’)两者线性组合起来,这种组合意味着绝对位置向量中蕴含了相对位置信息

3.注意力机制

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
做softmax归一化,归一化后得到一个相似度向量,再乘V,得到一个加权的和
在这里插入图片描述
Q代表婴儿对应的某种向量
左上,左下,右上,右下分别代表Key1,Key2,Key3,Key4的某种向量
V1,V2,V3,V4也是左上,左下,右上,右下对应的某种值向量value

首先是婴儿和左上,左下,右上,右下分别做点乘得到某个值
(为什么要点乘?在相似度计算的时候有是三种方式,分别为点乘,MLP,cos相似性。其中点乘是一个向量在另一个向量上投影的长度,是一个标量,可以反映两个向量之间的相似度,也就是说两个向量越相似,点乘结果越大)
判断婴儿和左上,左下,右上,右下四个区域,哪个点乘的结果最大,结果越大,距离越靠近,越相似,我越关注
比如与左上,左下,右上,右下点乘后分别为0.7 ,0.1 ,0.1 ,0.1 ,
就与左上最相似,然后将0.7 ,0.1 ,0.1 ,0.1 ,再与V矩阵相乘,得到的就是attention value,就是一个加权和

下面在讲解一下NLP中的例子
在这里插入图片描述

S1,S2,S3,S4就是点乘后的值,
然后softmax得到相似度a1,a2,a3,a4(相加=1)
在这里插入图片描述

在这里插入图片描述
X1 * W^Q = q1
X1 * W^K = k1
X1 * W^V = v1

X2 * W^Q = q2
X2 * W^K = k2
X2 * W^V = v2

接下来我们就要做attention value
在这里插入图片描述

在这里插入图片描述
还有要注意多头
这里我们只用了一套参数,但实际上我们是用了多套参数
在这里插入图片描述
在不同的参数中的得到不同的Z
在这里插入图片描述
最后我们要将多个头合在一起进行输出,然后再乘以一个矩阵,就得到多头注意力机制的输出

4.残差连接

Multi-Head Attention 上方还包括一个 Add & Norm 层,Add 表示残差连接 (Residual Connection) 用于防止网络退化,Norm 表示 Layer Normalization,用于对每一层的激活值进行归一化。

在这里插入图片描述
X + Z是一个残差的结果,再经过Layer Normalization
这里的Z表示其中的f(x)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

残差就是缓解了梯度消失,可以将NLP模型往深了做
在这里插入图片描述

5.Batch Normal

在这里插入图片描述
在这里插入图片描述
特征缩放
在这里插入图片描述
X1,X2,X3…表示班级里面的人,每一行代表他们的一个特征,身高体重…

在这里插入图片描述
在这里插入图片描述
比如一个班有50个人,我们选10个人的身高作为batch_size,去预测其他40个人的身高
如果选的人太少,效果不好

在这里插入图片描述
在这里插入图片描述
现在有一堆样本,batch_size为10
有9个长度为5,还有一个长度为20
这样我们在输入时前5个单词的均值和方差可以算出来
但第6个单词到第20个单词我们的均值和方差没法算

6.layer normal

在这里插入图片描述
在这里插入图片描述
比如最后一个句子是20个单词,LN就是对这个20个单词去做缩放,去做他的均值和方差(横过来的)
BN就是分别对第一个单词做均值和方差,第二个单词做均值和方差…

在这里插入图片描述

在这里插入图片描述
feed forward是一个两层的全连接

7.decode

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
所有encode的输出生成某种值,和每一个

encode中生成K,V矩阵,decode中生成Q矩阵
在这里插入图片描述
在这里插入图片描述

  • 22
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值