![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
attention
Smiler_
这个作者很懒,什么都没留下…
展开
-
CSAR——Channel-wise and Spatial Feature Modulation Network for Single Image Super-Resolution
####CSAR(Channel-wise and Spatial Attention Residual )包括通道(变成c*1*1)和空间维度(1*h*w)注意力原创 2020-12-12 21:28:03 · 747 阅读 · 2 评论 -
SENet
卷积核是卷积神经网络的核心,通常被看作是在局部感受野上,对空间尺度信息和通道尺度信息进行了信息融合。卷积神经网络通常包括一系列的卷积层,非线性层,下采样层。很多工作提出来从空间维度层面来提升性能,比如Inception结构中引入了多尺度信息,聚合多种不同感受野上的特征来获得性能增益。SENet是基于能否从通道层面(考虑特征通道之间的关系)的考虑提出的,动机是希望显式的建模特征通道之间的相互依赖关系,通过学习自动的获取到每个特征通道之间的重要程度,然后依据这个重要程度去提升有用的特征并抑制对当前任务作用不原创 2020-12-12 21:13:45 · 157 阅读 · 0 评论 -
CV中的注意力机制_1
注意力机制的基本思想就是让网络学会关注重要的信息而忽略无关的信息。1. 注意力机制的分类(1)软注意力:软注意力更加关注区域或者通道,可微,可以通过网络的前向传播以及后向传播学习得到。(2)强注意力:强注意力更加关注点,图像中的每一个点都可以延伸出注意力,强注意力是不可微的注意力,训练过程往往通过增强学习完成。2. 软注意力的使用软注意力一般通过相关特征学习权重分布,再利用学习得到的权重施加在特征上进一步提取相关知识。加权可以在原图上,通道(channel尺度),空间,时空上。3. 注意力相关原创 2020-12-10 20:50:37 · 300 阅读 · 1 评论