「论文阅读笔记」Attentive Feedback Network for Boundary-Aware Salient Object Detection

这是一篇来自于大连理工卢湖川实验室的一篇2D目标检测论文,被收录于2019的CVPR。

文章标题叫注意力反馈机制用于边界感知的目标检测。

其主要的思路同目标检测经典模型DHSnet差不多,都是生成一个粗糙全局特征图,然后在逐步细化输出。
不过在这其中,本篇论文强调“自更新”并能在训练过程中不断的调整和优化。


问题提出

 

  • FCN有很好的性能,但是边界模糊,这问题一直得不到很好的解决(从头到位一直在提)。虽然有CRF(条件随机场)这样的技术来进行一定的增强,但是增加了开销。
  • CNN的结构很多的池化和stride操作丢失了很多精细的信息,导致上采样也无法完全恢复。

 

贡献点

 

  • 1.通过采用每个编码器块和相应的解码器块来构建的注意反馈模块(AFM),捕捉物体整体的结构。
  • 2.边界增强损失(BEL)用于产生精美的边界,帮助在目标轮廓上的显着性预测的学习。
  • 3.新的全局感知模块,使用分块堆叠后的卷积实现全局视野。

 

相关工作

Coarse-to-fine solution.

Considering that simply concatenating features from different scales may fail if disordered by the ambiguous information, coarse-to-fine solutions are employed in recent state-of-the-art methods such as RefineNet [20], PiCANet [22] and RAS [5]. The authors address this limitation by introducing a recursive aggregation method which fuses the coarse features to generate high-resolution semantic features stage-by-stage. In this paper, we similarly integrate hierarchical features from coarse to fine scales by constructing skip-connections between scalematching encoder and decoder blocks. However, we think the weakness of the recursive aggregation method is that the coarse information may still mislead the finer one without proper guidance. Thus, we build Attentive Feedback Modules (AFMs) to guide the message passing among encoder and decoder blocks.

这一段作者讲述得十分清楚,首先是揭示了普遍存在的问题,如果单纯的把不同尺寸的特征图给concatenate(指的是连接,pytorch里有这个函数)一下,效果可想而知的会不好,因为这些特征图带有大量的不明确信息,其次跟着这个逻辑,作者列举出了当前比较领先的一些模型的处理方法,比如RefineNet , PiCANet 和 RAS,它们都是会采用一个递归聚合的方式解决这个问题,在这里作者只是简单采用其中的一种方式(skip connection),然而,作者认为一个好的“粗糙”特征图是不会有其他多余的信息,因为在聚合特征图时,多余信息会“误导”之后的细化操作,所以基于这一点,作者提出贡献点第一点,用AFM去逐级引导细化特征图。

模型

全结构主要分为两步:

  1. F作为输入,先经过Encoder的5层卷积块,然后输入GPM得到一个粗略图SG。
  2. 将SG按照右边AFM模块的结构逐级监督输入输出,最后得到224X224的F,最后两层还用了第二个贡献点BELloss去优化边界。

AFM(Attentive Feedback Module)

首先既然是反馈,那肯定会有两个箭头,一个是从encoder到decoder,另一个则相反,而在上图AFM-3中,左边的子过程t=1相当于前者,右边则相当于t=2,f的下标表示从哪一个结构来,上标表示具体的那一层,如fd(4,2)代表是从D(4)中的t=2阶段中输出而来

为什么要使用膨胀和消融?

The AFM provides an opportunity for error corrections using a ternary attention map in the second time-step feedback stream. We introduce to provide credible templates of foreground and background for reference. A proper way for our end-to-end training strategy is to exploit the refined prediction S (l,1) in the first time-step as a reference. Reviewing the morphological dilation and erosion, the former can gain weight for lightly drawn figures, and the latter is a dual operation which allows the thicker figures to get skinny. Motivated by that, we can ease the negative effects on boundaries by thinning down the salient regions through erosion.

在作者认为,反馈的作用是为了纠正encoder带来的一些错误信息,而对特征图使用膨胀后再消融,会将一些错误的信息给抵消掉(个人理解)

为什么只在前面两层使用BELloss?

For l = 3, 4, 5, the loss function just contains the first term, i.e. the cross-entropy loss for saliency detection. It is because that these layers do not maintain the details needed for recovering exquisite outlines. By extracting boundaries from the saliency predictions themselves, the boundary-enhanced loss enhances the model to take more efforts on boundaries.

由于前面说过,在传统采用的encoder-decoder中,前面几层的卷积层出来的东西比较低级,也就是我们所谓的低级特征,包含了大量的细节信息,而越高级就越抽象,到后面常常会只有一个模糊的图,可以说是定位了特征图的位置。所以也就没有必要对后面几层进行边界的监督。

实验

 

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Attentive Contrastive Learning Network(关注对比学习网络)是一种用于无监督学习的深度学习模型。它的主要目标是从大规模无标签数据中学习到有意义的特征表示,以便在后续任务中获得更好的性能。 该网络的核心概念是关注和对比学习。关注机制能够帮助网络在数据中发现关键的信息,提高对重要特征的注意力。对比学习则通过将数据样本与其他样本进行比较来学习特征表示。这种对比学习方式可以使网络区分不同的样本,从而为模型提供更多的信息。 Attentive Contrastive Learning Network首先通过卷积神经网络(CNN)或其他预训练模型提取原始图像或数据的特征表示。然后,网络利用关注机制,对这些特征进行加权和选择,以便聚焦在最具信息量的特征上。这样可以减少噪声和冗余,提高模型的鲁棒性和泛化能力。 接下来,网络使用对比损失函数来学习特征表示。对于每个样本,网络将其与其他样本进行对比,并计算它们之间的相似度或差异度量。通过最小化相似样本间的距离和最大化差异样本间的距离,网络可以学习到能够区分样本的特征表示。这种对比学习方式激励网络挖掘数据中的隐藏结构和语义信息。 总体而言,Attentive Contrastive Learning Network是一种强大的方法,可以在无监督学习中学习到数据的有效特征表示。通过关注机制和对比学习,网络能够提取并聚焦在数据中的重要特征上,从而提高后续任务的性能。这种方法在计算机视觉、自然语言处理等领域具有广泛的应用前景。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值