多头注意力机制_深度学习入门之注意力机制

本文深入探讨了注意力机制在计算机视觉(CV)领域的应用,包括ResNet的空域注意力、SENet的通道注意力、BAM和CBAM的并联与串联注意力,以及多头注意力机制等。这些模型通过调整特征的权重,提升了模型对关键信息的识别能力。
摘要由CSDN通过智能技术生成

10496c6c22db8bd5857308e665e28de9.png

关于注意力机制,谷歌的一篇论文给出了注意力机制的定义:给定一个Query和一系列的Key-Val对一起映射出一个输出。它包含下面三个关键性步骤:

  • 将Query与Key进行相似性度量
  • 将求得的相似性度量进行缩放标准化
  • 将权重与value进行加权

用公式描述:

545833198437215898ef8110a46d3b5d.png
Fig Att-1 注意力机制示意图

上述定义源自谷歌2017年发表的《Attention is all you need》。它是基于序列到序列应用出发的而提出的定义。但是上述定义对于CV应用而言过于抽象,难以理解。

视觉注意力机制是人类视觉所特有的大脑信号处理机制。人类视觉通过快速扫描全局图像,获得需要重点关注的目标区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需关注目标的细节信息,而抑制其他无用信息。

这是人类利用有点的注意力资源从大量信息中快速筛选出高价值信息的手段,是人类在长期进化中形成的一种生存机制,人类视觉注意力机制极大的提高了视觉信息处理的效率与准确性。Fig Att-2形象的展示了人类在看到一幅图像时是如何高效分配有限的注意力资源的,其中红色区域表明视觉系统更关注的目标,很明显对于Fig Att-2所示的场景,人们会更多注意力投入到人的脸部、文本标题以及文章首句等位置。

4cc52aeb8b456e1bf92c55796a287e98.png
Fig Att-2 人类视觉注意力

那么,是不是可以这样理解:Attention是为了对特征进行权重重分配?在无Attention机制下,我们可以认为输入的每个特征对于输出的每个特征作用是相同的,而Attention则是为了进一步区分特征的不同重要性,为其赋予不同的注意力权值强调不同特征的重要性。

比有一个一维向量

,常规的特征映射可以描述为
。但是,我们可能认为
的作用更大,希望为其赋予更多的权重,希望通过
的值对齐进行“弥补”,即需要求得一组权值
对输入进行加权平均来得到
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值