计算机视觉的注意力机制
猫猫与橙子
这个作者很懒,什么都没留下…
展开
-
【注意力】ESE:Effective Squeeze-and-Excitation Block
注意力机制:ESE(Effective Squeeze and Extraction) layer原创 2022-07-06 15:49:22 · 3338 阅读 · 0 评论 -
【注意力机制】《DCANet: Learning Connected Attentions for Convolutional Neural Networks》
文章链接:https://arxiv.org/abs/2007.05099作者团队:北德克萨斯州大学目录1.Abstract2.Deep Connected Attention2.1Revisiting Self-Attention Blocks2.2 Attention Connection2.3 Size Matching2.4 Multi-dimensional attention connection4.Experiments4.1 Classificatio原创 2020-09-03 15:11:56 · 2368 阅读 · 0 评论 -
[注意力机制]CBAM:Convolutional Block Attention Module
论文链接:https://arxiv.org/abs/1807.06521v2代码:https://github.com/luuuyi/CBAM.PyTorch/issues/8(最近在看人脸识别的轻量级网络,然后看到了与cbam相关的内容,就想尝试以下效果,是否有助于提升模型人脸识别的能力;)论文的贡献:作者提出了卷积层的注意力模块(Convolutional Block Atten...原创 2019-09-23 08:37:12 · 5668 阅读 · 4 评论 -
对SE_ResNet的理解
最近在使用InsightFace_Pytorch-master pytorch工程,然后有使用到SE_ResNet50,所以想要分析相应的网络结构(包括网络层名和读取对应层相应参数)了解什么叫做SE模块?SE是Squeeze-and-Excitation(SE)的缩写,该模块的提出主要是考虑到模型通道之间的相互依赖性。SE网络的使用结构如下图所示:上左图是将SE模块嵌入到Incep...原创 2019-07-10 11:37:39 · 20535 阅读 · 6 评论