项目实训(八)--transformer

项目实训(八)

本文讲一下个人对transformer的理解

结构

在这里插入图片描述
像大多数seq2seq模型一样,transformer模型是由encoder-decoder构成。

字向量与位置编码

由上面的结构可知,输入inputs需要经过input embedding进行编码。
这一层的编码主要由两部分组成,字符编码和位置编码。
所谓字符编码,就是将语句划分之后的字符通过预训练的向量进行匹配选择,得到向量化表示;
而位置编码,是为了考虑进字符的位置信息。实现如下:

在这里插入图片描述
最后将字向量与位置编码进行拼接。

自注意力机制

在上一步进行了编码,我们得到了句子序列的向量表示矩阵X
对X做线性映射,并进行权重分配,权重矩阵WQ,WK,WV
进行线性映射(即矩阵相乘),得到三个矩阵QKV,维度与线性变换之前一致

得到矩阵Q,K,V之后,进行多头注意力机制multi-head
得到注意力矩阵Xatt
在这里插入图片描述

残差连接与layer normalization

将向量表示矩阵X与注意力矩阵Xatt进行拼接,然后传入layer normalization进行优化

feedforward

进行两步线性变化,再激活

参考

https://github.com/aespresso/a_journey_into_math_of_ml/tree/master/03_transformer_tutorial_1st_part

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值