论文笔记(五) C-MIL: Continuation Multiple Instance Learning for Weakly Supervised Object Detection

论文笔记(五) C-MIL: Continuation Multiple Instance Learning for Weakly Supervised Object Detection

这是cvpr2019的oral,还是一篇基于弱监督的目标检测论文。
关于弱监督目标检测的定义在上一篇笔记中已经讲过了 传送门 。与上一篇论文中要缓解的问题一样,即弱监督的损失局部极小问题,但是这篇论文的处理方法更为理论化,而不是对模型架构进行调整。

introduction

问题定义

B B B表示图片的集合, B i B_i Bi表示第 i i i张图片。 y = 1 , − 1 y={1, -1} y=1,1 y i ∈ y y_i\in y yiy表示 B i B_i Bi中是否包含样本。 j ∈ 1 , 2 , . . . , N j\in {1,2,...,N} j1,2,...,N,N表示目标的数量 B i , j B_{i,j} Bi,j y i , j y_{i,j} yi,j表示图片 B i B_i Bi中的目标和目标的标签, w w w表示网络所需要训练的参数。

局部极小问题

在上一篇论文中是从模型架构的角度来缓解这个问题,所以一笔带过了。而在这篇论文中,作者是从优化的角度来缓解此问题。
MIL网络中,一般分为两部分,即一个选择器和一个检测器,选择器负责将所有候选框分为正样本和负样本,是一个二分类问题,损失函数采用的是hinge loss
F f ( B , w ) = max ⁡ ( 0 , 1 − y i max ⁡ i f ( B i , j , w f ) ) F_f(B,w)=\max(0, 1-y_i\max_if(B_{i,j},w_f)) Ff(B,w)=max(0,1

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值