↑ 点击
蓝字 关注极市平台
作者丨ChaucerG 来源丨AI人工智能初学者 编辑丨极市平台
https://arxiv.org/abs/2010.03045 本文研究了轻量且有效的注意力机制,并提出了Triplet Attention,该注意力机制是一种通过使用Triplet Branch结构捕获跨维度交互来计算注意力权重的新方法。对于输入张量,Triplet Attention通过旋转操作和残差变换建立维度间的依存关系,并以可忽略的计算开销对通道和空间信息进行编码。该方法既简单又有效,并且可以轻松地插入经典Backbone中。
2、CBAM(Convolutional Block Attention Module)
3、BAM(Bottleneck Attention Module)
4、Grad-CAM
5、Grad-CAM++
6、 -Nets(Double Attention Networks)
7、NL(Non-Local blocks)
8、GSoP-Net(Global Second order Pooling Networks)
9、GC-Net(Global Context Networks)
10、CC-Net(Criss-Cross Networks)
11、SPNet 等等方法(这些方法都值得大家去学习和调研,说不定会给你的项目带来意想不到的效果)。
以上大多数方法都有明显的缺点(Cross-dimension),Triplet Attention解决了这些缺点。Triplet Attention模块旨在捕捉Cross-dimension交互,从而能够在一个合理的计算开销内(与上述方法相比可以忽略不计)提供显著的性能收益。
极市导读
本文介绍了一种新的注意力机制——Triplet Attention,它通过使用Triplet Branch结构捕获跨维度交互来计算注意力权重,是一个即插即用、简单高效的注意力模块。>>加入极市CV技术交流群,走在计算机视觉的最前沿
论文下载地址和代码开源地址: https://github.com/LandskapeAI/triplet-attentionhttps://arxiv.org/abs/2010.03045 本文研究了轻量且有效的注意力机制,并提出了Triplet Attention,该注意力机制是一种通过使用Triplet Branch结构捕获跨维度交互来计算注意力权重的新方法。对于输入张量,Triplet Attention通过旋转操作和残差变换建立维度间的依存关系,并以可忽略的计算开销对通道和空间信息进行编码。该方法既简单又有效,并且可以轻松地插入经典Backbone中。
1、简介和相关方法
最近许多工作提出使用Channel Attention或Spatial Attention,或两者结合起来提高神经网络的性能。这些Attention机制通过建立Channel之间的依赖关系或加权空间注意Mask有能力改善由标准CNN生成的特征表示。学习注意力权重背后是让网络有能力学习关注哪里,并进一步关注目标对象。这里列举一些具有代表的工作:
1、SENet(Squeeze and Excite module)2、CBAM(Convolutional Block Attention Module)
3、BAM(Bottleneck Attention Module)
4、Grad-CAM
5、Grad-CAM++
6、 -Nets(Double Attention Networks)
7、NL(Non-Local blocks)
8、GSoP-Net(Global Second order Pooling Networks)
9、GC-Net(Global Context Networks)
10、CC-Net(Criss-Cross Networks)
11、SPNet 等等方法(这些方法都值得大家去学习和调研,说不定会给你的项目带来意想不到的效果)。
以上大多数方法都有明显的缺点(Cross-dimension),Triplet Attention解决了这些缺点。Triplet Attention模块旨在捕捉Cross-dimension交互,从而能够在一个合理的计算开销内(与上述方法相比可以忽略不计)提供显著的性能收益。