Attention 机制最早在NLP 领域中被提出,基于attention 的transformer结构近年在NLP的各项任务上大放异彩。在视觉任务中,attention也收到了很多的关注,比较有名的方法包括Non-Local Network,能够在时空volume中对全局的关系进行建模,获得了很好的效果。但视觉任务中的self-attention模块通常需要进行大矩阵的矩阵乘法,显存占用大且比较耗时。所以近年有许多优化self-attention模块速度的方法,这篇笔记主要讨论几篇相关方法,有错误之处欢迎指正。
Self-Attention 简介
Attention 机制通常可以表达为如下的形式
其中,
为query,为key,为value。从检索任务的角度来看,query是要检索的内容,key是索引,value则是待检索的值。attention的过程就是计算query 和key之间的相关性,获得attention map,再基于attention map去获得value中的特征值。而在如下图所示的self-attention中,Q K V均为同一个feature map。
上图是一个self-attention模块的基本结构,输入为
, 分别通过1x1卷积获得 。则可以获得attention map为 。最后与 做矩阵乘法获得与输入shape想同的self-attention feature map。
在self-attention中,计算量和显存占用比较大的主要是生成attention map时的