Paper:Sampling Matters in Deep Embedding Learning
论文链接:https://arxiv.org/abs/1706.07567
开源代码:https://github.com/chaoyuaw/incubator-mxnet/tree/master/example/gluon/embedding_learning
在embedding learning中,除了损失函数如contrastive loss和triplet loss起很大作用外,采样策略也同样非常重要。
又是一篇ICCV 2017的文章。(最近看的好几篇都是2017的诶)
这篇paper提出了一个distance weighed sampling,选取信息量更大更稳定的训练样本。进一步,还提出了一个margin based loss。
Sampling
contrastive loss将正样本拉近,给负样本之间一个距离alpha。但是问题就在于:必须为每个负样本都选择一个余量alpha,在空间上并不够鲁棒。