2021-02-20

自注意力 survey(https://blog.csdn.net/xys430381_1/article/details/89323444) 笔记

 

自注意力机制是注意力机制的改进,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。 自注意力机制通过捕捉全局的信息来获得更大的感受野和上下文信息

自注意力机制通过(key, query, value)的三元组提供了一种有效的捕捉全局上下文信息的建模方式,由于每一个点都要捕捉全局的上下文信息,这就导致了自注意力机制模块会有很大的计算复杂度和显存容量

就注意力关注的域来分:

  1. 空间域(spatial domain)
  2. 通道域(channel domain)
  3. 层域(layer domain)
  4. 混合域(mixed domain)
  5. 时间域(time domain):还有另一种比较特殊的强注意力实现的注意力域,时间域(time domain),但是因为强注意力是使用reinforcement learning来实现的,训练起来有所不同

一个概念:Self-attention自注意力,就是 feature map 间的自主学习,分配权重(可以是 spatial,可以是 temporal,也可以是 channel间)

 

1. 避免降维有助于学习有效的通道注意;

2. 轻量模块ECANet(通道注意力超强改进);

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值