显著性检测--(Unsupervision, Weak-supervision)

弱监督任务就是原本没有标签,所以通过一定的方法构造出伪标签作为Ground Truth来监管训练,通常是交替迭代训练,即一边训练网络完成预测,一边又用该预测结果作为新的Ground Truth来训练网络.

1.《Learning to Detect Salient Objects with Image-level Supervision》

网络结构图如下:

在这里插入图片描述
(1)第一阶段,训练FCN网络完成分类任务,同时得到初始Saliency map 作为第二阶段的初始Ground Truth.
在这一阶段的关键创新点就是Intermediate Score map 与 FIN Map(Foreground Saliency map) 作 element-wise multiplication
该步骤巧妙的将image classification任务和salience detection 任务结合起来。image classification 可以得到每个类别的响应图,而saliency map 应该是多个显著类别的响应图集合。所以,作者将这两者相乘,得到masked score map, 经过gsp 得到分类概率,实现多分类任务,通过不断的训练(image-classification label 的监管),相乘的F map 逐渐学会响应图片中出现的多个类别,这样相乘后的Masked Score Map 的正确类别才会继续保持响应甚至得到增强,不相干类别继续不响应甚至被抑制,多分类任务才得以正确完成。换句话说,经过image-classification 分支的训练,F map逐渐学会对图片中显著物体的响应。

在这里插入图片描述
在这里插入图片描述
the foreground saliency map F ∈ Rn×n and score map S ∈ Rn×n×C ,Sk denotes the k-th channel of score map S. 通过相乘,得到masked score map. 后接global smooth pooling, 得到概率预测,实现多分类预测任务。(不同于global max pooling 和 global average pooling, 详情见论文)
注意:在分类任务训练过程中,F会很容易学会一种投机取巧的方式,就是对所以位置全部施加响应,这样F就形同虚设了,为了杜绝该现象产生,施加额外的稀疏正则项限制,如下所示:第一项鼓励F对显著前景高响应,第二项抑制F对不显著背景响应。
在这里插入图片描述
(2)第二阶段:self-training
交替执行 saliency map(FIN map) 估计 和 用估计的map作为ground truth 训练FIN 推断网络。 为了得到更准确的saliency map. 使用新的CRF机制来迭代refine和bootstrapping loss来train,详情见论文。

2.《Multi-source weak supervision for saliency detection》-----CVPR2019

网络结构图如下:

在这里插入图片描述
CNet, PNet, SNet三大模块分别针对image classification, image caption, saliency map prediction 任务,3种weak-source 输入数据(category label data,caption label data,unlabeled data)互相辅助完成显著物体预测。

Training第一阶段:使用以下4个loss 训练CNet, PNet. 输入包括三种weak-sorce data.

(1)classification loss: 主要针对分类任务及其给出的预测图。
在这里插入图片描述
(2)cation loss: 主要针对标题任务及其给出的预测图。
在这里插入图片描述
(3)attention transfer loss: 主要使两个网络互相利用对方的salience map当做自己的监督信息。这样两个网络可更好的相互扶持,提升整体效果。
在这里插入图片描述
(4)attention coherence loss:针对unlabeled data, 使用该loss 用于使CNet, PNet 生成更general的 显著预测图,而非task-specific 的预测图。具体参考论文。
在这里插入图片描述
第一阶段整体loss如下:
在这里插入图片描述

Training第二阶段:输入为unlabeled data, 使用第一阶段训练好的CNet, PNet给出相应pseudo ground truth 用于监管训练SNet。

具体给出pseudo ground truth 的方法为使用crf average CNet,PNet的限制图,然后使用双线性插值resize 到原图尺寸。
S为SNet 预测,Y为伪标签。
在这里插入图片描述

Test阶段:

只使用SNet 给出输入数据的显著预测图。

3.《Deep Unsupervised Saliency Detection: A Multiple Noisy Labeling Perspective》----CVPR2018

网络结构图如下:

在这里插入图片描述
通过现有的unsupervised method 给出noisy saliency map. 将对noisy saliency map 的学习建模成
noisy saliency map=saliency prediction output + noisy
利用noisy saliency map 来训练优化prediction模块和noise distribution模块。最终测试阶段,prediction模块给出的预测即为最终的显著预测图。
该方法,将noise 拆分出来,可最大程度上利用unsupervised saliency map 信息,同时减轻其noise影响。

  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值