MultiHead-Attention和Masked-Attention的机制和原理


免费链接: Blogger(需翻Q)


一、本文说明

看本文前,需要先彻底搞懂Self-Attention。推荐看我的另一篇博文层层剖析,让你彻底搞懂Self-Attention、MultiHead-Attention和Masked-Attention的机制和原理。本篇文章内容在上面这篇也有,可以一起看。

二. MultiHead Attention

2.1 MultiHead Attention理论讲解

在Transformer中使用的是MultiHead Attention,其实这玩意和Self Attention区别并不是很大。先明确以下几点,然后再开始讲解:

  1. MultiHead的head不管有几个,参数量都是一样的。并不是head多,参数就多。
  2. 当MultiHead的
Multi-head masked self-attention是Transformer模型中的一种注意力机制。在这种机制中,输入序列中的每个位置都被当作查询来计算注意力权重,然后根据这些权重对所有位置进行加权求以得到最终的表示。 Multi-head表示将注意力机制分为多个头部进行独立计算,每个头部都具有自己的参数。这样可以让模型同时关注不同位置不同表示子空间的信息,提高了模型的表达能力泛化能力。 Masked self-attention是在计算注意力权重时引入的一种掩码机制。通过在注意力计算中使用一个掩码矩阵,可以阻止模型关注当前位置之后的信息,从而保证模型在预测当前位置时只使用了之前的信息。这在解决序列生成任务中非常有用,例如语言模型或机器翻译。 因此,multi-head masked self-attention是一种在Transformer中使用的注意力机制,它允许模型同时关注不同位置不同表示子空间的信息,并通过掩码机制保证模型在预测时只使用了之前的信息。这种机制在提高模型表达能力解决序列生成任务中起到了重要作用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [层层剖析,让你彻底搞懂Self-AttentionMultiHead-AttentionMasked-Attention机制原理](https://blog.csdn.net/zhaohongfei_358/article/details/122861751)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

iioSnail

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值