attention is all your need 之 multihead_attention

多头注意力使得模型能够从不同的子空间获取特征,首先结构如下:

假如Q,K,V对应的都是(2,3,6)的数据块,使用h=2的两头注意力来操作。首先使用3个全连接分别对Q,K,V进行映射得到3个(2,3,6)Tensor,然后每个Tensor的最后一维进行split(2)操作(h=2,两头注意力),将每个Tensor切为两个(3,3),然后在第一维上进行concat操作,这样就得到4个(3,3)Q_,4个(3,3)的K_,4个(3,3)的V_。下图表示对Q进行操作,K和V也同理:
进行split和concat操作后,相当于一个2条数据的batch变成4条数据的batch,进行注意力的计算互不干扰,使用scaled_dot_product_attention进行attention操作,依旧使用公式:
在《Attention is all your need》中h为8,也就是会分为8个子注意力来并行计算。最后在计算完成后将8个子注意力拼接在一块。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值