注意力机制
文章平均质量分 93
刘芋儿
这个作者很懒,什么都没留下…
展开
-
【注意力机制】CBAM: Convolutional Block Attention Module 阅读笔记
????Paper: CBAM: Convolutional Block Attention Module????Abstract文章提出了CBAM(Convolutional Block Attention Module),卷积块注意力模块,这是一种用于前馈卷积神经网络的简单而有效的注意力模块。给定一个中间步骤的特征图,我们的模块会依次沿着通道和空间维度推断注意力图,然后将注意力图与输入特征图相乘以进行自适应特征优化。由于CBAM是一个轻量级的通用模块,因此可以将其简单地集成到任何CNN结构中,原创 2021-04-11 14:24:56 · 1386 阅读 · 0 评论 -
【注意力机制】SENet:Squeeze-and-Excitation Networks 阅读笔记、通道注意力机制的理解
ILSVRC 2017 图像分类比赛冠军Abstract卷积神经网络建立在卷积运算的基础上,它通过在局部感受野内将空间和通道方面的信息融合在一起,来提取信息特征。为了提高网络的表达能力,最近的一些方法已经显示出空间编码的优越性。在这项工作中,作者专注于通道关系,并提出了一个新的架构单元,称之为 “SE block”,通过模拟通道之间的相互依赖关系,自适应地重新校准通道方面的特征响应。通过将这些SE模块堆叠在一起,可以构建SENet架构,本结构在具有挑战性的数据集上有较好的泛化能力。以SENet.原创 2021-04-10 14:53:14 · 2630 阅读 · 1 评论