论文名称:《NAM: Normalization-based Attention Module》
论文地址:https://arxiv.org/pdf/2111.12419.pdf
代码地址:https://github.com/Christian-lyc/NAM
文章目录
1 原理
识别较不显著的特征对于模型压缩至关重要。然而,在革命性的注意力机制中,这一点尚未得到研究。在本研究中,我们提出了一种新颖的基于规范化的注意力模块(NAM)
,它抑制了较不显著的权重。它对注意力模块应用权重稀疏惩罚,从而使其在保持类似性能的同时更加计算高效。在Resnet
和Mobilenet
上与其他三种注意力机制进行比较表明,我们的方法具有更高的准确性。