loss 加权_Multi-Similarity Loss使用通用对加权进行深度度量学习-CVPR2019

《Multi-Similarity Loss with General Pair Weighting for Deep Metric Learning》

原文Multi-Similarity Loss with General Pair Weighting for Deep Metric Learning​openaccess.thecvf.com

codehttps://github. com/MalongTech/research-ms-loss​github

摘要

在深度度量学习(deep metric learning)中,有一系列的基于对(pair-based)的损失函数被提出。但是都没有提出一个统一的框架去理解这些损失函数,论文中提出了一种通用的加权框架,去理解这些基于对(pair-based)的损失函数。文中将这种框架称为通用的对加权(General Pair Weighting, GPW),其将深度度量学习中的采样问题看成通过梯度分析的对加权问题。通过使用GPW,可以比较并且更好的理解现有的基于对(pair-based)的方法的明显不足与关键限制。论文中还在GPW的框架下提出了一个新的损失函数叫多相似性损失(multi-similarity loss, MS loss),该方法主要分为两个迭代步骤,即挖掘(mining)和加权(weighting)。MS loss在图像检索任务中达到了目前最好,在CUB200和In-Shop Clothes Retrieval dataset。

General Pair Weighting(GPW)

GPW框架

是一个实值的实例向量(可以理解为CNN中的fc的输出),然后我们有一个实例矩阵

(其中

可以理解为batch_size),和一个标签向量

。然后实例

通过一个函数

映射到一个一个

维度的单位空间,这里的

指的是带有参数

的神经网络。然后我们定义两个样例的相似性

,其中

指的是点成(dot product),得到一个相似性矩阵

,其

位置的元素表示为

对于一个基于

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值