注意力方面
Activewaste
good good study,day day up
展开
-
【论文笔记】:Pyramid Feature Attention Network for Saliency detection
&TitlePyramid Feature Attention Network for Saliency detection代码&Summary在显著性检测算法中,如何提取到更有效的特征是该任务的难点之一。为了解决该问题,我们通过金字塔特征注意网络来注意高语义特征和低维空间结构特征。首先,使用上下文感知金字塔特征提取(Context-aware PyramidFeatureExtraction,CPFE)模块对高级多尺度信息捕捉丰富的语义信息。其次,在CPFE模块后加入通原创 2020-05-09 13:21:52 · 1867 阅读 · 0 评论 -
【论文笔记】:Side-Aware Boundary Localization for More Precise Object Detection
&TitleSide-Aware Boundary Localization for More Precise Object Detection代码&Summary本文提出Side-Aware Boundary Localization(SABL)以取代传统的bbox回归。提取关注于边界内容的边缘感知特征用来定位。提出使用该特征的轻量级two-step bucketi...原创 2020-04-21 19:50:03 · 1248 阅读 · 0 评论 -
【论文笔记】:Object detection with location-aware deformable convolution and backward attention filtering
&TitleObject detection with location-aware deformable convolution and backward attention filtering代码&Summary本文提出了location-aware deformable convolution以及backward attention filtering模块以提高...转载 2020-04-20 10:37:40 · 725 阅读 · 0 评论 -
non-local neural network
以下论文笔记摘自:知乎理解non-local:为了能够当作一个组件接入到以前的神经网络中,作者设计的non-local操作的输出跟原图大小一致,具体来说,是下面这个公式:上面的公式中,输入是x,输出是y,i和j分别代表输入的某个空间位置,x_i是一个向量,维数跟x的channel数一样,f是一个计算任意两点相似关系的函数,g是一个映射函数,将一个点映射成一个向量,可以看成是计算一个点的特...转载 2020-04-11 17:36:43 · 440 阅读 · 0 评论