A Self-paced Multiple-instance Learning Framework for Co-saliency Detection文章阅读

摘要:
传统的co-saliency是抽取人工特征矩阵,这种策略缺少泛化到各种场景的能力。而且缺少生物机制理论,为了解决这个问题,提出一个新奇的任务。通过多示例学习和自调节学习。一方面适合矩阵测量方法(评价方法),发现common部分在co-salient 区域在自学习方法通过MIL,另一方面适合学习可靠和稳定性通过SPL方法。
介绍:
MIL去学习image中object和context的反差,也学习group中image的一致性。MIL的目标是基于两个标准去学习预测每个instance:最大化类外距离,最小化类内距离。(这是co-saliency的精髓,都是在想怎么去解决这个事情)。按照这一标准,这个类内和类间的距离都是从data中自动的学习的。
怎么去解决这个问题的呢?
在group的每一个image上至少有一个superpixel是正样本,其他的group的每一个image都是负样本。co-saliency的目标就是分离co-saliency 目标区域从图像的背景中。因此MIL是非常是用于co-saliency检测任务的。
MIL的一个重要部分,是迭代更新训练实例的正样本,和实例检测迭代。由于这些实例的标签是虚假的定义在一个弱监督的方式下,MIL是一个框架,可以知道可靠的实例注释和实例检测是急迫的。
最后,我们提出一个self-paced【13】 MIL框架。提出一个图2,的框架。在特征提取之后,使用SP-MIL去迭代的更新co-saliency目标检测器(w,b)和对于训练实例的标签在SPL中,最终,补充了考虑邻近超像素关系,就是空间关系。

本文的贡献:
1、提出一个新奇的co-saliency 检

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值