self-attention 与 attention机制的关系

attention和self-attention 使用机器翻译任务例子理解两者之间的关系假设:原文长度n , 输入序列source,输出序列targetquery, key, value target序列中的某个元素query Source序列是一系列<key,value>数据对score function对于一个query , 和所有的key做向量点积 (a.b = |a||b|cosµ) 度量两个词的相似度 ,越相似,点积越大 ——长度为n的list 得分值score[i]
摘要由CSDN通过智能技术生成

attention和self-attention 使用机器翻译任务例子理解两者之间的关系

假设:原文长度n , 输入序列source,输出序列target

query, key, value 
target序列中的某个元素query 
Source序列是一系列<key,value>数据对

score function

对于一个query , 和所有的key做向量点积 (a.b = |a||b|cosµ) 度量两个词的相似度 ,越相似,点积越大 ——长度为n的list 得分值score[i]

alignment function

SoftMax对所有点积值归一化 i=1..n , ∑prob[i] = 1

generate context vector function

n个prob[i]与n个value[i]一一对应,加权求和
这个query的attention值 == ∑prob[i] *value[i]


score[i] = query * key[i]
prob[i]=softmax(score[i])
attention=∑prob[i]*value[i]

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值