DCANet: Learning Connected Attentions for Convolutional Neural Networks
论文下载链接:https://arxiv.org/abs/2007.05099
注:如果上述链接无法访问或者下载速度过慢,可以看文末,已上传至百度云,方便下载
本文深入探索自注意力机制,并提出即插即用的DCA模块,增强你的注意力模型,提高网络性能!如DCA-CBAM/SE/SK-ResNet50组合,代码即将开源!
作者团队:北德克萨斯州大学
尽管自注意力机制已在许多视觉任务中显示出不错的性能,但它一次只考虑当前的特征。我们表明,这种方式不能充分利用注意力机制。 在本文中,我们介绍了深度连接的注意力网络(DCANet),这是一种新颖的设计,可以在不对内部结构进行任何修改的情况下增强CNN模型中的注意力模块。 为了实现这一点,我们将相邻的注意力blocks互连,从而使信息在attention blocks之间流动。 使用DCANet,可以对CNN模型中的所有注意力模块进行联合训练,从而提高了注意力学习的能力。 我们的DCANet是通用的。 它不限于特定的注意力模块或基础网络体系结构。 在ImageNet和MS COCO基准测试上的实验结果表明,DCANet在所有测试用例中以最小的额外计算开销始终胜过最新的注意力模块。 所有代码和模型均公开提供。
网络结构
实验结果
下载
链接: https:// pan.baidu.com/s/1pAE4Sa 66E20_DAxgnvadIQ
提取码:pkxm