Attention机制

目录

第一步:Q和K相似度计算

点乘 dot product​

权重 General

 拼接权重 Concat​

感知器 Perceptron ​

第二步:归一化

第三步:加权求和计算


Attention机制本质上是对相关性的计算,Attention通常表示,将query(Q)和key-value pairs  映射到输出上,其中query、每个key、每个value都是向量,输出是V中所有values的加权,其中权重是由Query和每个key计算出来的,计算方法分为三步:

第一步:Q和K相似度计算

Q和K的相似度计算比较,用一种映射f来表示如下:

   通常相似度的计算方法包括以下四种:

  • 点乘 dot product

  • 权重 General

 

 

  •  拼接权重 Concat

 

  • 感知器 Perceptron 

 

第二步:归一化

将得到的相似度进行Softmax操作,进行归一化

 

第三步:加权求和计算

 针对计算出来的权重  ,对V中所有的values进行加权求和计算,得到Attention向量 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

月亮299

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值