Cross Attention和 Self- Attention 的区别?

本文详细比较了Self-Attention和CrossAttention,前者用于同一序列内元素间的关系,后者处理两个不同序列间的联系。通过实例解释了两者在计算注意力分数上的差异及其在实际任务中的应用。
摘要由CSDN通过智能技术生成

Cross Attention和Self-Attention都是深度学习中常用的注意力机制,用于处理序列数据,其中Self-Attention用于计算输入序列中每个元素之间的关系,Cross Attention则是计算两个不同序列中的元素之间的关系。它们的主要区别在于计算注意力分数时所用的查询、键和值的来源不同。

在Self-Attention中,输入序列被分成三个向量(即查询向量,键向量和值向量),这三个向量均是来自于同一组输入序列,用于计算每个输入元素之间的注意力分数。因此,Self-Attention可以用于在单个序列中学习元素之间的依赖关系,例如用于语言建模中的上下文理解。

在Cross Attention中,有两个不同的输入序列,其中一个序列被用作查询向量,另一个序列被用作键和值向量。Cross Attention计算的是第一个序列中每个元素与第二个序列中所有元素之间的注意力分数,通过这种方式来学习两个序列之间的关系。例如,在图像字幕生成任务中,注意力机制可以用来将图像的特征与自然语言描述的句子相关联。

下面是一个简单的例子,演示Self-Attention和Cross Attention的区别。假设有两个序列A和B,它们分别表示句子和单词:

A = ["The", "cat", "sat", "on", "the", "mat"]

B = ["mat", "cat", "dog", "on"]

在Self-Attention中,我们会用A本身的向量来计算注意力分数,查询向量、键向量和值向量都是从A中提取的。例如,我们可以通过将A传递给一个Self-Attention层来计算每个单词之间的注意力分数。

在Cross Attention中,我们将B的向量用作键和值向量,而A的向量用作查询向量。这允许我们计算句子中每个单词与单词序列B中的所有单词之间的注意力分数。例如,我们可以通过将A和B传递给一个Cross Attention层来计算单词和单词序列B之间的注意力分数。

总之,Self-Attention和Cross Attention都是非常有用的注意力机制,它们分别用于处理序列内部和跨序列的关系

  • 4
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值