注意力机制

目录

一、注意力机制概念

二、查询、键和值

三、非参注意力池化层


注意力机制:我们会把我们的焦点聚焦在比较重要的事物上。

对于一个模型而言(CNN、LSTM),很难决定什么是重要的,什么是不重要的,由此注意力机制诞生了。

对于一张热力图而言,我们不难发现人类的注意力主要集中在该图的“红色”区域,这些“红色”区域(人脸、标题、段落开头)可能包含更多的更重要的信息。

一、注意力机制概念

从心理学角度上讲:

1.注意力是动物需要在复杂环境下有效管制的注意的点

2.在心理学框架上:人类根据随意线索不随意线索选择注意点

举个例子:在一堆单调黑白的物体中,有一个红色的咖啡杯,不由自主地会引起人们的注意,这种注意力为不随意线索,无目的,选择最鲜艳的目标。

那么,在喝完咖啡后呢,我们再看这一堆单调黑白的物体,去选择读书时,这时我们的注意力就是主动的了,是随意线索,有目标对象。

二、查询、键和值

  • 卷积、全连接、池化层都只考虑不随意线索
  • 注意力机制则显示的考虑随意线索

1. 随意线索被称之为查询(query)

2. 每个输入是一个值(value)

3. 不随意线索被称之为键(key)

注意力机制通过注意力汇聚(Attention pooling),将查询(随意线索)和键(不随意线索)结合在一起,实现对值(输入)的选择倾向

三、非参注意力池化层

给定数据(x_iy_i), i = 1,…,n,x_i为不随意线索key,y_i为输入value

平均池化是最简单的方案:

更好的方案是60年代提出的Nadaraya-Watson核回归:

这里的K为高斯核,其定义为:

这里可以对比一下softmax函数公式:
                                                p(y=i)=\frac{e^{z_{i}}}{\sum_{j=0}^{K-1}e^{z_{i}}},i\in\{0......i\}

不难看出Nadaraya-Watson核本质性上也是一个softmax函数:

为了让注意力池化层可以进行学习,在非参数的基础上引入学习的w

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

向岸看

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值