论文笔记 | Metric Learning with adaptive density discrimination

Authors

这里写图片描述
Oren Rippel(有趣的是作者喜欢中文)
Manohar Paluri
Piotr Dollar
Lubomir Bourdev

Abstract

本文介绍了一种Distance Metric Learning (DML),效果比triplet还要好,而且需要的迭代次数更少。

1 Introduction

这里写图片描述
与传统的DML相比,Magenet不仅考虑intra-class variation 而且还考虑inter-class similarty。

2 Motivation

  • target neighborhood structure是先验predefined的,大多数只考虑label的语义,忽略了类内的区别,应该将设置为adaptively
  • objective formulation ,传统的目标函数只是针对一对或者是triplets,所以这会造成1性能下降short sightedness 2需要更多的迭代次数、

3 Magnet Loss

本文的DML算法是找出不同类别overlap的区域并将其分开。

3.1 Model Formulation

作者建立的objective如下:
这里写图片描述
公式里标注的小类就是一个大类之间的子类。
其中 rn代表某个点的representation,u(r)代表其聚类中心,K代表一个大类中利用k-means得到k个子类。与标准的dml方法不同的是这里使用了variance standardiztion。这就使得不同问题之间有了可比性, α 可以看作是cluster separation gap。

3.2 Training Procedure

上面的模型是针对整个样本总体的,训练过程中我们要construct 一个 minibatch来实现我们的objective。

3.2.1 neighbourhood sampling

分为以下三步:
- samples a seed cluster I1
- 相近的选取m个cluster
- 对于每个cluster选取D个example
然后计算loss
这里写图片描述

3.2.2 cluster index

训练到一定程度更新cluster index。

3.3 Evaluation Procedure

这里写图片描述

这里L=128

3.4 Relation to existing models

  1. triplet 将D设为2,M=2,忽略方差,就会得到triplet的公式
    这里写图片描述
  2. Neighborhood component analysis
    这里写图片描述
  3. Nearest class Mean
    这里写图片描述
    学习线性矩阵W

4 Experiment

作者使用带batch normalization的GoogLeNet,但是是partly trained(3 epochs),测试时用了16个augmentation的average。
试验说明Magnet loss 在多数情况下都会好于triplet和softmax,训练速度快于triplet,而且使用的kNC再Magent loss上也好于KNN

Appendix B

momentum 0.9
smaller dataset refresh index every epoch 。 for ImageNet Attributes every 1000 iterations
这里写图片描述

总结

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值