MIL是一篇关于tracking中基于tracking-by-detection框架的文章,而且关注的是好的正样本的问题。当然之前那篇里面的struck也是关注这个问题。作者首先发现,利用当前帧的state获得的正负样本很容易混淆分类器本身。因为tracker本身稍微的误差可能将训练样本的label标错,那么训练出来的分类器也就不好了,于是对下一帧的预测很可能出问题。于是我们还是得获得好的正负样本来update appearance model啊。
我感觉作者提出multi-instance learning 来解决这个问题,说白了就是三个臭皮匠顶个诸葛亮的思想。也就是说,作者想由于无法保证每次的正样本是最好的,而如果扩充正样本的话,又会搞得分类器自己迷惑,那么干脆多找些臭皮匠样本得了。这些样本构成一个集合,给他们赋一个标签。当这个集合里面的样本存在一个正样本或以上这个标签就是正的,否则为负。如下所示:
左边是采用单个正样本update model,中间是采用多个正样本update model,右边是将正样本构造一个集合,整个集合看做是正样本。
模型的框架如下所示:
下面说说multiple instance learning(MIL).
在传统的判别式学习算法中,我们训练分类器的话,需要正负样本的集合,在这里就是从一个图像patch提取的特征。而在MIL中,形式如下:,其中X是样本的集合,bag。如果这里面至少有一个样本位置,那么bag就是看做正的。我们要做的就是训练一个instance classifer来估计出label.对于bag而言,就是。这个公式的好处就是当bag中某一个instance有很高的probability的时候,那么相应地这个bag也具有很高的probobility。
讲完了MIL,作者又引入了一个概念叫:Online boosting.Boosting的思想,应该是弱弱联合,构造一个强分类器,其中组合系数可学:
。
最流行的算法来求解这个系数的当属adboost.
有了这两个概念之后:
Online Multiple Instance Boosting就出来了,作者首先构造一个目标函数:
Hk-1是有前(k-1)个弱分类器组成的强分类器,在本文中作者对instance probability建模成:
,首先我们需要训练弱分类器,而弱分类器需要label,于是我们把bag的label给里面的每一个instance,然后选择K个如分类,挑选标准就是:
算法的伪代码如下: