一、论文理论
论文地址:Rotate to Attend: Convolutional Triplet Attention Module
1.理论思想
通过使用三分支结构捕获跨维度交互来计算注意力权重的新方法。对于输入张量,triplet attention通过旋转操作,然后使用残差变换建立维度间的依存关系,并以可忽略的计算开销对通道间和空间信息进行编码。
2.创新点
(1)可以忽略的计算开销
(2)强调了多维交互而不降低维度的重要性,因此消除了通道和权重之间的间接对应。
(1)跨维度的注意力权重计算:通过设计三分支结构捕获通道、高度、宽度三个维度的交互关系计算注意力权重。
(2)旋转操作和残差变换:利用旋转输入张量和应用残差变换建立不同维度的依赖。
(3)维度间依赖