self-attention架构及计算细节

1、结构

self-attention其实就是一种结构,并且具备自己独特的参数计算方法,下面是self-attention的结构图,a1到a4其实可以认为是输入或者是隐含层某一层的输入,其实就是通过attention后输出维度相同的b1到b4,只是输出会考虑到a1到a4的关联关系。

如下,b1是由a1到a4综合后算出来的,那么如何去计算关联及如何得到b1呢?

 2、计算方法

计算方法其实不固定,可以相乘一个矩阵后相乘,也可以相乘再相加再tanh,但是一般会选第一种。

3、并行计算

下面这些参数是可以并行计算得到的。

4、矩阵化

5、位置参数编码方式如下

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ITIRONMAN

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值