注意力机制

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
注意力机制其实就是在Encoding。
什么是Encoding?:Encoding就是在编码,将一个东西A经过某种规则B变成另一种东西C,C是A的另一种表达(C与A指的是同一个东西只不过表现形式不同罢了)。这样从A到C的过程B就是Encoding的过程!

Encoding的谁?

  1. Encoding的words,使用SelfAttention机制将words encoding成sentence representation。(实现机制是:将每个query对words的encode vector(C)合成一个vector,具体看STCKA的操作)
  2. 仍然是Encoding的words,使用普通的Attention对每个query计算其C(encode vector)


    以上两种是根据task不同划分的,第一种是要求sentence representation(用于sentence representation)。
    另一种是求单个query的C即可(这个用于seq2seq)。

在SelfAttention中Q、K、V的计算方式:

  1. Q=K=V=WordVector
  2. 从WordVector中获取:(X是对应单词的WordVector)
    在这里插入图片描述
    这三个W参数是嵌入在模型中的。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值