度量学习、细粒度识别相关论文阅读笔记(一)——SoftTriple Loss

本文是关于度量学习和细粒度识别中SoftTriple Loss的论文阅读笔记,详细解释了Triple Loss原理、采样方法、SoftTriple Loss的改进,包括normalized softmax、多个中心思想和自适应中心数策略。此外,还讨论了其在网络结构中的应用,并以Cars196数据集为例进行了实验。
摘要由CSDN通过智能技术生成

度量学习、细粒度识别相关论文阅读笔记(一)——SoftTriple Loss

之前调研了几篇度量学习、细粒度识别相关领域的最新论文,现将之前做的论文笔记分享出来供大家一起探讨。
因为之前没有涉及过相关领域,如果有的地方理解不够准确希望大家指正。

先回顾一下Triplet loss的原理以及应用。

Triple Loss

Triple Loss

Triplet loss最初是在 FaceNet: A Unified Embedding for Face Recognition and Clustering 论文中提出的,应用于人脸识别任务中。目前,Triplet loss也被广泛应用于各种细粒度识别任务中。
Triplet loss的目的是学习一个好的embedding,使得同一个人的人脸在嵌入空间中尽量接近,不同人的人脸在嵌入空间中尽量远离。
在这里插入图片描述
可以写成如下公式:
在这里插入图片描述
其中,a表示anchor, p表示同类样本,n表示异类样本。 为margin, 用来卡阈值,控制正负样本的距离,从而判断是不是属于同一个类别。
论文中的损失函数公式定义为:
在这里插入图片描述

Triplets挖掘

基于前文定义的Triplet loss,可以将采样得到的三元组分为以下三类:
easy triplets:L = 0,即满足,这种情况属于易分类三元组
hard triplets:,这种情况下anchor与同类样本距离远,属于会被误识别的三元组
semi-hard triplets:,这种情况下被称作难样本。
在网络训练中ÿ

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值