![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文翻译
文章平均质量分 95
ismiaodh
巨人的肩膀有点滑~
展开
-
(论文翻译)Coordinate Attention for Efficient Mobile Network Design(坐标注意力 CVPR2021)
最近在移动网络设计的研究在通道注意力上(如SENet)表现出引人注意的效果,但是他们普遍忽略了位置信息,这对生成空间注意力特征映射是重要的方法。原创 2024-06-09 08:00:00 · 797 阅读 · 0 评论 -
(论文翻译)Rotate to Attend Convolutional Triplet Attention Module(维度注意力 WACV2021)
背景:受益于通道或空间位置的相互依赖,注意力机制最近被广泛研究并使用在一系列CV任务方法在本文中,我们研究轻量且高效的注意力机制并提出triplet注意力,一种通过使用三分支结构捕获跨维度的计算注意力权重的新颖方法对于输入的张量,triplet attention用最小的计算开销,通过残差转换与编码通道、空间信息的旋转操作建造维度间的依赖我们的方法简单高效,可以简单的作为模块插入经典的主干网络贡献。原创 2024-05-13 08:30:00 · 1375 阅读 · 0 评论 -
(论文翻译)Vision Transformer(视觉Transformer ICLR2021)
挑战虽然Tansformer架构再NLP任务上已经成为实际标准,但是它对CV的应用仍存在限制在视觉中,注意力结合着卷积网络一起应用,或者替换卷积网络的某一部分,同时保持他们的整体结构不变方法我们证明了这种对CNN的依赖是不必要的,一种完全应用Tansformer直接将图片patches序列化可以在图形分类任务中性能更好贡献。原创 2024-05-12 08:30:00 · 993 阅读 · 1 评论 -
(论文翻译)Selective Kernel Networks(多尺度注意力CVPR2019)
在标准的CNNs网络中,每层中的人工神经元的感受野size是固定的挑战:众所周知,神经科学领域中,视觉皮层神经元的感受野size随着刺激进行改变,在CNNs的构建中很少被考虑方法在CNNS中,我们提出了一种动态选择机制,它使每个神经元动态的调整基于输入信息的多尺度的感受野size一种SK unit被设计,其中不同感受野size的多种branches通过这些branches上的信息使用进行融合branches上不同的attention在融合层中会产生不同的神经元感受野size。原创 2024-05-11 08:30:00 · 1173 阅读 · 1 评论 -
(论文翻译)CBAM Convolutional Block Attention Module(通道+空间注意力ECCV2018)
Convolutional Block Attention Module (CBAM),一种简单高效的前馈卷积神经网络注意力模块给定一个中间的feature map,我们的模型沿着两个独立的维度推断出attention map,即通道与空间,然后将attention map与输入feature map相乘进行自适应特征细化由于CBAM是一个轻量级的泛化模型,它可以被无缝整合到任意CNN结构原创 2024-05-10 08:30:00 · 1281 阅读 · 0 评论 -
(论文翻译)Squeeze-and-Excitation Networks (通道注意力CVPR2018)
背景:卷积神经网络的目的是通过局部感受野融合空间信息(图像中像素的排列和位置)和通道信息来提取具有更多信息的特征。挑战:如何提升网络的表示能力?提出新方法:我们聚焦在通道关系并提出SE block,它可以通过通道间的依赖关系动态调整通道特征。贡献我们证明了通过不断的SE block堆叠,可以得到极具泛化性的网络结构,并适用于多种数据集。SE block相对于已有的SOTA方法中有着最小额外计算开销。SENets在排名前五的方法中误差降低到2.2512.251\%2.251%。原创 2024-05-09 11:10:33 · 733 阅读 · 2 评论