注意力机制代码_增强注意力!DCANet:学习卷积神经网络的连接注意力

ad03fa1efcc67b57c5dfb032d5b1612e.png

DCANet: Learning Connected Attentions for Convolutional Neural Networks

f760b013b4a31c76430810be5cfc9d86.png

论文下载链接:https://arxiv.org/abs/2007.05099

注:如果上述链接无法访问或者下载速度过慢,可以看文末,已上传至百度云,方便下载

本文深入探索自注意力机制,并提出即插即用的DCA模块,增强你的注意力模型,提高网络性能!如DCA-CBAM/SE/SK-ResNet50组合,代码即将开源!

作者团队:北德克萨斯州大学

尽管自注意力机制已在许多视觉任务中显示出不错的性能,但它一次只考虑当前的特征。我们表明,这种方式不能充分利用注意力机制。 在本文中,我们介绍了深度连接的注意力网络(DCANet),这是一种新颖的设计,可以在不对内部结构进行任何修改的情况下增强CNN模型中的注意力模块。 为了实现这一点,我们将相邻的注意力blocks互连,从而使信息在attention blocks之间流动。 使用DCANet,可以对CNN模型中的所有注意力模块进行联合训练,从而提高了注意力学习的能力。 我们的DCANet是通用的。 它不限于特定的注意力模块或基础网络体系结构。 在ImageNet和MS COCO基准测试上的实验结果表明,DCANet在所有测试用例中以最小的额外计算开销始终胜过最新的注意力模块。 所有代码和模型均公开提供。

网络结构

203b48cce2b633c459d686c53bce8e1a.png

7e376f6b0fe76369197c8b59e1ef8ea9.png

4e6147f3d52c56070c1a3361ce886b58.png

实验结果

f91a9b46a38a167dfce3eee95ea69d1d.png

1de25f8fc965f630e537b7c2505888c2.png

3d9367e0e24420622fa3a19f8886ea35.png

下载

链接: https:// pan.baidu.com/s/1pAE4Sa 66E20_DAxgnvadIQ
提取码:pkxm
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值