Motivation
1,度量学习是什么?在分类中就不光是分类,而是能把相近的拉近,距离远的推远。
首先,这里的距离有很多种,包括欧氏距离,马氏距离等,
其次,这里拉近和推远的方式也有很多种,本文中的就是赋予权重,给easy sample小的权重,给hard sample大的权重,让函数更好地学习。
2,主要考虑两个问题:如何采样和如何拉近推远。
以前的方法包括SCAN就是随机采样,拉近推远就是给不同的样本相同的权重。
而我们正是优化这两个问题:
采样变成了满足条件才进行采样:
而拉近推远则是通过给easy样本小的权重,hard样本大的权重来实现的。
这里的权重函数就是一个简单的线性函数:
3,针对这个权重函数我们就提出了所谓的新的损失函数
avg型号的:
变化一下:
max型号的:
变化一下: