SoftTriple Loss: Deep Metric Learning Without Triplet Sampling

1. Abstract

距离度量学习(DML)用于学习嵌入(特征提取),其中来自同一类别的示例比来自不同类别的示例更接近。 可以将其转换为具有三元约束的优化问题。 由于存在大量三元组约束,因此DML的采样策略必不可少。随着深度学习在分类领域的巨大成功,它已被应用于DML。 当使用深度神经网络(DNN)学习嵌入时,每次迭代仅可获得一小部分数据。三重约束的集合必须在小批次中采样。 由于小批量无法很好地捕获原始集合中的邻居,因此使学习到的嵌入次优。相反,使用DNN优化作为分类损失的SoftMax损失在某些DML任务中表现出优异的性能。 它激发我们研究SoftMax的结构。我们的分析表明SoftMax损失等效于每个类别具有一个中心的平滑的triplet loss。在现实世界的数据中,一类可以包含多个局部簇,而不是一个局部簇,例如,不同姿势的鸟。 因此,我们建议使用SoftTriple损失将SoftMax损失扩展到每个类别的多个中心。与传统的深度度量学习算法相比,优化SoftTriple损失可以通过适度增加最后一个全连接层的大小来学习无需采样阶段的嵌入。在基准数据集上进行的实验证明了所提出的损失函数的有效性。Code is available at CLICK HERE

2. Introduction

距离度量学习(DML)由于其广泛的应用而在过去的几十年中得到了广泛的研究,例如k近邻分类,图像检索和聚类。使用适当的距离度量,来自同一类别的示例应该比来自不同类别的示例更接近。 已经有许多算法来学习良好的距离度量。在大多数传统DML方法中,示例都是通过手工提取的特征来表示的,而DML则是要学习一种特征映射,以将示例从原始特征空间投影到新空间。 距离可以用马氏距离计算
dist ⁡ M ( x i , x j ) = ( x i − x j ) ⊤ M ( x i − x j ) \operatorname{dist}_{M}\left(\mathbf{x}_{i}, \mathbf{x}_{j}\right)=\left(\mathbf{x}_{i}-\mathbf{x}_{j}\right)^{\top} M\left(\mathbf{x}_{i}-\mathbf{x}_{j}\right) distM(xi,xj)=(xixj)M(xixj)

其中 M M M是学习到的距离度量,使用这种格式,DML的主要挑战来自输入空间的维数。作为度量,学习的矩阵 M M M 必须为半正定(PSD),而保持矩阵PSD的成本可能高达 O ( d 3 ) O(d^3) O(d3),其中 d d d 是原始特征的维数。早期工作直接应用PCA来缩小原始空间。后来,开发了各种策略来降低计算成本。

在这里插入图片描述

图1. softTriple loss
在传统的SoftMax loss中,每个类别在最后一个全连接层中都有一个中心。同一类中的示例将归纳到同一中心。如图所示,它可能不适用于现实世界的数据。相比之下,SoftTriple loss 会在全连接的层中保留多个中心(例如,在本示例中每个类别2个中心),并且每个图像都将分配给其中一个。它对于在现实数据集中的类内方差建模更为灵活。

这些方法可以从输入特征中获得良好的度量,但是手工提取的特征与任务相互独立,并且可能导致信息丢失,从而限制了DML的性能。随着深层神经网络在分类任务中的成功应用,研究人员考虑直接从深层神经网络学习嵌入。如果没有显式的特征提取,深度度量学习将极大地提高性能。在深度度量学习中,输入特征的维数不再是挑战,因为神经网络可以直接从原始数据(例如图像,文档等)中学习低维特征。相反,对于深度度量学习而言,生成用于优化的适当约束变得具有挑战性。

这是因为大多数深度神经网络都是使用随机梯度下降(SGD)算法进行训练的,并且每次迭代中只有一小部分示例可用。由于嵌入是通过锚点示例及其邻域(例如,成对约束或三重约束的有效集合)上定义的损失进行优化的,因此小批量处理中的示例可能无法很好地捕获整个邻域,尤其是对于相对较大的情况数据集。此外,小批量包含 O ( m 2 ) O(m^2) O(m2) pairs O ( m 3 ) O(m^3) O(m3) triplets,其中m是小批量的大小。即使对于小批量要有效地学习嵌入,有效的抽样策略也是必不可少的。有很多努力致力于研究信息丰富的小批次采样以及在小批次中对三元组采样。一些工作还试图使用proxies减少三元组的总数。对小批次和约束进行采样不仅会丢失信息而且使优化变得复杂。在这项工作中,我们考虑学习无约束采样的嵌入。

近年来的研究表明,通过优化SoftMax损失直接得到的嵌入数据在简单的基于距离的任务和人脸识别方面表现良好。这启发了我们对SoftMax loss公式的研究。我们的分析表明,SoftMax损失等同于平滑的triplet loss。通过为最后一个全连接层中的每个类别提供一个的中心,可以在原始示例, 和他相关的中心以及和他不同类的中心上定义由SoftMax损失得出的三重态约束。因此,通过优化SoftMax损失得到的嵌入可以很好地作为距离度量。然而,如图1所示,真实世界数据中的类可以由多个本地簇组成,并且单个中心不足以捕获数据的内在结构。因此,从SoftMax损失中学习到的嵌入在复杂场景中可能会失败。

在这项工作中,我们提出通过为每一类引入多个中心来改善SoftMax损失,这种新的损失被称为SoftTriple损失。与单个中心相比,多中心可以更好地捕捉数据的隐藏分布,因为它们有助于减少类内方差。这个性质对于在多中心训练时保留原始样本上的三元组约束也是至关重要的。与现有的deep-DML方法相比,SoftTriple中的三元组数与原始示例数呈线性关系。由于中心编码在最后一个全连接层中,所以SoftTriple损失可以在没有采样三元组的情况下得到优化。图1示出了所提议的SoftTriple损失。显然,SoftTriple loss必须确定每个类的中心数。为了缓解这个问题,我们开发了一个策略,在开始时为每个类设置足够多的中心,然后应用 L 1 , 2 L_{1, 2} L1,2 正则来获得一个紧凑的中心集。在fine-grained visual 分类任务上我们证明了所提出的损失函数,在这些任务中,捕获本地集群对于获得良好的性能至关重要。

本文的其余部分安排如下。第二部分回顾了传统的距离度量学习和深度度量学习的相关工作。第三节分析了SoftMax 损失,并提出了相应的SoftTriple loss。第4节在基准数据集上进行比较。最后,第五部分总结了本文的工作,并讨论了未来的发展方向。

2. Related Work

Distance metric learning 当输入特征被提供时,许多DML方法已经被开发出来。由于半正定矩阵投影的存在,输入特征的维数是这些方法面临的一个重要挑战,人们已经提出了许多解决方法。最直接的方法是通过PCA对输入空间进行降维。然而,PCA与任务无关,可能会影响学习嵌入的性能。一些工作试图用低秩假设来减少有效参数的数目,论文[16]通过减少PSD投影的数目来降低计算成本,论文[17]提出通过引入随机投影在低维空间中学习对偶变量,然后在原始空间中恢复度量。在解决了维度的挑战后,手工构建的特征成为性能提升的瓶颈

在这些方法中度量学习的的约束条件形式也得到改进。早期的工作集中在优化成对约束,这要求来自同一类的示例之间的距离较小,而来自不同类的示例之间的距离较大。然后,发展了三元组约束,其中给定一个锚定示例,锚定点与相似示例之间的距离应比锚定点与不同类示例之间的距离小很多。很明显,成对约束的个数为 O ( n 2 ) O(n^2) O(n2),而三元组约束的个数可达 O ( n 3 ) O(n^3) O(n3),其中 n n n 是原始实例的个数。与成对约束相比,三元组约束优化了局部聚类的几何结构,更适用于类内方差的建模。本次工作中,我们将集中在三重约束上

Deep metric learning 深度度量学习的目的是通过深度神经网络直接从原始数据(如图像)中学习嵌入。在任务相关的的embedding下,度量学习的性能有了显著的提高。然而,大多数深度模型都是用SGD训练的,在每次迭代中只允许一小批数据。由于小批量的规模很小,与原始数据相比,其中的信息是有限的。为了解决这一问题,算法必须具有有效的抽样策略来生成小批量,然后从中抽取三元组约束。一个简单的方法是增加小批量的规模。然而,大的小批量将受到GPU内存的限制,也会增加 triplet 采样的挑战。随后,论文[19]建议从相邻类生成minibatch。此外,论文[3, 12, 21, 24]提出各种各样的抽样策略来获得约束。论文[21]提出采样semi-hard负样本…然而,所有这些策略都可能无法捕捉到整个数据集的分布情况。此外,它们使得深度DML中的优化变得复杂。

Learning with proxies 近年来,一些研究者考虑减少triplet 的总数,以缓解 triplet 数量过多带来的挑战。论文[14] 用一个原始示例和两个代理构造 triplet 损失。由于代理的数量明显少于原始示例的数量,因此可以将代理保存在内存中,以帮助避免在不同批次中进行采样。但是,当标签信息可用时,它只为每个类提供一个代理,这与SoftMax类似。论文[18]提出了一种传统的DML算法,只利用潜在的例子构造三元组损失,为每个类分配多个中心,进一步减少了三元组的数目。本文提出通过SoftTriple损失来学习嵌入,从而排除采样阶段,同时捕获每个类的局部几何信息。

3. SoftTriple Loss

在这一部分中,我们首先介绍了SoftMax损失和triplet 损失,然后研究了它们之间的关系,导出了SoftTriple loss。

i i i个样本的嵌入表示成 x i x_i xi, 与之相应的label为 y i y_i yi,然后深度神经网络的输出的条件概率可以使用SoftMax操作获得:

Pr ⁡ ( Y = y i ∣ x i ) = exp ⁡ ( w y i ⊤ x i ) ∑ j C exp ⁡ ( w j ⊤ x i ) \operatorname{Pr}\left(Y=y_{i} \mid \mathbf{x}_{i}\right)=\frac{\exp \left(\mathbf{w}_{y_{i}}^{\top} \mathbf{x}_{i}\right)}{\sum_{j}^{C} \exp \left(\mathbf{w}_{j}^{\top} \mathbf{x}_{i}\right)} Pr(Y=yixi)=jCexp(wjxi)exp(wyixi)

其中, [ w 1 , w 2 . . . w c ] ∈ R d ∗ C [w_1, w_2...w_c]\in R^{d*C} [w1,w2...wc]RdC 是最后的全连接层, C C C 表示类的数量, d d d是embedding的维数, 与之相关的SoftMax损失为:

ℓ Soft Max  ( x i ) = − log ⁡ exp ⁡ ( w y i ⊤ x i ) ∑ j exp ⁡ ( w j ⊤ x i ) \ell_{\text {Soft Max }}\left(\mathbf{x}_{i}\right)=-\log \frac{\exp \left(\mathbf{w}_{y_{i}}^{\top} \mathbf{x}_{i}\right)}{\sum_{j} \exp \left(\mathbf{w}_{j}^{\top} \mathbf{x}_{i}\right)} Soft Max (xi)=logjexp(wjxi)exp(wyixi)

一个深层模型可以通过最小化损失来学习。这种损失已普遍应用于分类任务

给定一个三元组 ( x i , x j , x k ) (x_i, x_j, x_k) (xi,xj,xk),DML的目标是学习好的嵌入,即来自同一个类的示例比来自不同类的示例更接近,如下所示:

∀ i , j , k , ∥ x i − x k ∥ 2 2 − ∥ x i − x j ∥ 2 2 ≥ δ \forall i, j, k, \quad\left\|\mathbf{x}_{i}-\mathbf{x}_{k}\right\|_{2}^{2}-\left\|\mathbf{x}_{i}-\mathbf{x}_{j}\right\|_{2}^{2} \geq \delta i,j,k,xixk22xixj22δ

其中 x i x_i xi x j x_j xj 来自同一个类, x k x_k xk 来自不同的类, δ \delta δ是预定义的一个间隔,当每个示例都有单位长度(例如: ∥ x ∥ 2 = 1 \|\mathbf{x}\|_{2}=1 x2=1),三元组约束可以被简化成如下:

∀ i , j , k , x i ⊤ x j − x i ⊤ x k ≥ δ              ( 1 ) \forall i, j, k, \quad \mathbf{x}_{i}^{\top} \mathbf{x}_{j}-\mathbf{x}_{i}^{\top} \mathbf{x}_{k} \geq \delta \,\,\,\,\,\,\,\,\,\,\,\,(1) i,j,k,xixjxixkδ(1)

这里我们忽略了对 δ \delta δ 的缩放。与之相应的 triplet loss 可以写成:
ℓ triplet  ( x i , x j , x k ) = [ δ + x i ⊤ x k − x i ⊤ x j ] +              ( 2 ) \ell_{\text {triplet }}\left(\mathbf{x}_{i}, \mathbf{x}_{j}, \mathbf{x}_{k}\right)=\left[\delta+\mathbf{x}_{i}^{\top} \mathbf{x}_{k}-\mathbf{x}_{i}^{\top} \mathbf{x}_{j}\right]_{+} \,\,\,\,\,\,\,\,\,\,\,\,(2) triplet (xi,xj,xk)=[δ+xixkxixj]+(2)

从等式1可以看出,总的三元组数是样本数的三次方,这使得大多数基于三元组的DML算法不可避免地要进行采样。

对于 w w w x x x的都是单位向量,归一化的SoftMax loss可以写为

ℓ SoftMax  norm  ( x i ) = − log ⁡ exp ⁡ ( λ w y i ⊤ x i ) ∑ j exp ⁡ ( λ w j ⊤ x i )              ( 3 ) \ell_{\text {SoftMax }_{\text {norm }}}\left(\mathbf{x}_{i}\right)=-\log \frac{\exp \left(\lambda \mathbf{w}_{y_{i}}^{\top} \mathbf{x}_{i}\right)}{\sum_{j} \exp \left(\lambda \mathbf{w}_{j}^{\top} \mathbf{x}_{i}\right)} \,\,\,\,\,\,\,\,\,\,\,\,(3) SoftMax norm (xi)=logjexp(λwjxi)exp(λwyixi)(3)

其中 λ \lambda λ 是缩放因子。令人惊讶的是,我们发现用平滑项 λ \lambda λ 最小化归一化SoftMax loss等同于优化平滑的triplet loss

Proposition 1
ℓ Soft Max  norm  ( x i ) = max ⁡ p ∈ Δ λ ∑ j p j x i ⊤ ( w j − w y i ) + H ( p )              ( 4 ) \ell_{\text {Soft Max }_{\text {norm }}}\left(\mathbf{x}_{i}\right)=\max _{\mathbf{p} \in \Delta} \lambda \sum_{j} \mathbf{p}_{j} \mathbf{x}_{i}^{\top}\left(\mathbf{w}_{j}-\mathbf{w}_{y_{i}}\right)+H(\mathbf{p}) \,\,\,\,\,\,\,\,\,\,\,\,(4) Soft Max norm (xi)=pΔmaxλjpjxi(wjwyi)+H(p)(4)

其中 p ∈ R C p \in R^C pRC 是类的分布, Δ = { p ∣ ∑ j p j = 1 , ∀ j , p j ≥ 0 } \Delta=\left\{\mathbf{p} \mid \sum_{j} \mathbf{p}_{j}=1, \forall j, \mathbf{p}_{j} \geq 0\right\} Δ={pjpj=1,j,pj0} H ( p ) H(p) H(p)表示分布 p p p的熵

证明,根据KKT条件,等式4中的分布p有闭式解

p j = exp ⁡ ( λ x i ⊤ ( w j − w y i ) ) ∑ j exp ⁡ ( λ x i ⊤ ( w j − w y i ) ) \mathbf{p}_{j}=\frac{\exp \left(\lambda \mathbf{x}_{i}^{\top}\left(\mathbf{w}_{j}-\mathbf{w}_{y_{i}}\right)\right)}{\sum_{j} \exp \left(\lambda \mathbf{x}_{i}^{\top}\left(\mathbf{w}_{j}-\mathbf{w}_{y_{i}}\right)\right)} pj=jexp(λxi(wjwyi))exp(λxi(wjwyi))

因此,我们有:
ℓ Soft Max norm  ( x i ) = λ ∑ j p j x i ⊤ ( w j − w y i ) + H ( p ) = log ⁡ ( ∑ j exp ⁡ ( λ x i ⊤ ( w j − w y i ) ) ) = − log ⁡ exp ⁡ ( λ w y i ⊤ x i ) ∑ j exp ⁡ ( λ w j ⊤ x i ) \begin{array}{l} \ell_{\text {Soft Max norm }}\left(\mathbf{x}_{i}\right)=\lambda \sum_{j} \mathbf{p}_{j} \mathbf{x}_{i}^{\top}\left(\mathbf{w}_{j}-\mathbf{w}_{y_{i}}\right)+H(\mathbf{p}) \\ =\log \left(\sum_{j} \exp \left(\lambda \mathbf{x}_{i}^{\top}\left(\mathbf{w}_{j}-\mathbf{w}_{y_{i}}\right)\right)\right)=-\log \frac{\exp \left(\lambda \mathbf{w}_{y_{i}}^{\top} \mathbf{x}_{i}\right)}{\sum_{j} \exp \left(\lambda \mathbf{w}_{j}^{\top} \mathbf{x}_{i}\right)} \end{array} Soft Max norm (xi)=λjpjxi(wjwyi)+H(p)=log(jexp(λxi(wjwyi)))=logjexp(λwjxi)exp(λwyixi)

Remark 1 命题1表明,SoftMax损失优化了由一个原始例子和两个中心(如: x i , w y i , w j x_i, w_{yi}, w_j xi,wyi,wj)组成的三元约束;与等式1中三元组约束条件相比,SoftMax loss 的目标是:

∀ i , j , x i ⊤ w y i − x i ⊤ w j ≥ 0 \forall i, j, \quad \mathbf{x}_{i}^{\top} \mathbf{w}_{y_{i}}-\mathbf{x}_{i}^{\top} \mathbf{w}_{j} \geq 0 i,j,xiwyixiwj0

因此,在设计分类任务时,通过最小化SoftMax损失所得到的嵌入量可以适用于基于距离的任务。

Remark 2 没有熵正则化器,损失就变成

max ⁡ p ∈ Δ λ ∑ j p j x i ⊤ w j − λ x i ⊤ w y i \max _{\mathbf{p} \in \Delta} \lambda \sum_{j} \mathbf{p}_{j} \mathbf{x}_{i}^{\top} \mathbf{w}_{j}-\lambda \mathbf{x}_{i}^{\top} \mathbf{w}_{y_{i}} pΔmaxλjpjxiwjλxiwyi

这相当于

max ⁡ j { x i ⊤ w j } − x i w y i \max _{j}\left\{\mathbf{x}_{i}^{\top} \mathbf{w}_{j}\right\}-\mathbf{x}_{i} \mathbf{w}_{y_{i}} jmax{xiwj}xiwyi

显然,它严厉的惩罚三元组且当 x i x_i xi 的最近邻是与之相应的中心点 w y i w_{yi} wyi时为0。熵正则化减少了离群值的影响,并使损失更加鲁棒。 λ \lambda λ 在hardness of triplets 和 regularizer 之间进行权衡。此外,最小化最大熵可以使分布集中,进一步使样本远离不相关中心,这意味着样本具有较大的裕度(margin)特性。

Remark 3 使用相似分析法分析ProxyNCA损失 :
ℓ P r o x y N C A ( x i ) = − log ⁡ exp ⁡ ( w y i ⊤ x i ) ∑ j ≠ y i exp ⁡ ( w j ⊤ x i ) \ell_{\mathrm{ProxyNCA}}\left(\mathbf{x}_{i}\right)=-\log \frac{\exp \left(\mathbf{w}_{y_{i}}^{\top} \mathbf{x}_{i}\right)}{\sum_{j \neq y_{i}} \exp \left(\mathbf{w}_{j}^{\top} \mathbf{x}_{i}\right)} ProxyNCA(xi)=logj=yiexp(wjxi)exp(wyixi)

我们有:

ℓ ProxyNCA  ( x i ) = max ⁡ p ∈ Δ λ ∑ j ≠ y i p j x i ⊤ ( w j − w y i ) + H ( p ) \ell_{\text {ProxyNCA }}\left(\mathbf{x}_{i}\right)=\max _{\mathbf{p} \in \Delta} \lambda \sum_{j \neq y_{i}} \mathbf{p}_{j} \mathbf{x}_{i}^{\top}\left(\mathbf{w}_{j}-\mathbf{w}_{y_{i}}\right)+H(\mathbf{p}) ProxyNCA (xi)=pΔmaxλj=yipjxi(wjwyi)+H(p)

其中 p ∈ R C − 1 p \in R^{C-1} pRC1 ,与SoftMax损失相比,它去除了只包含相应类中心的基准三元组,使得损失无界。我们的分析表明,损失可以有界,如等式2所示: ℓ Proxy NCA  hinge  ( x i ) = [ − log ⁡ exp ⁡ ( w y i ⊤ x i ) ∑ j ≠ y i exp ⁡ ( w j ⊤ x i ) ] + \ell_{\text {Proxy NCA }}^{\text {hinge }}\left(\mathbf{x}_{i}\right)=\left[-\log \frac{\exp \left(\mathbf{w}_{y_{i}}^{\top} \mathbf{x}_{i}\right)}{\sum_{j \neq y_{i}} \exp \left(\mathbf{w}_{j}^{\top} \mathbf{x}_{i}\right)}\right]_{+} Proxy NCA hinge (xi)=[logj=yiexp(wjxi)exp(wyixi)]+。验证有界损失不在这项工作的范围之内。

尽管优化SoftMax loss可以学习有意义的特征嵌入,但缺点很简单。它假设每个类只有一个中心,而现实世界中由于类内的巨大差异而可能包含多个局部簇,如图1所示。传统的SoftMax损失产生的三元组约束过于简单,无法捕捉原始数据的复杂几何结构。因此,我们为每个类引入多个中心。

3.1 Multiple Centers

现在,我们假设每个类都有 K K K个中心。然后,可以将示例 x i x_i xi与类别 C C C之间的相似性定义为:

S i , c = max ⁡ k x i ⊤ w c k              ( 5 ) \mathcal{S}_{i, c}=\max _{k} \mathbf{x}_{i}^{\top} \mathbf{w}_{c}^{k}\,\,\,\,\,\,\,\,\,\,\,\,(5) Si,c=kmaxxiwck(5)

注意,相似性的其他定义也可以适用于这个场景(例如: min ⁡ z ∈ R K ∥ [ w c 1 , ⋯   , w c K ] z − x i ∥ 2 \min _{\mathbf{z} \in \mathbb{R}^{K}}\left\|\left[\mathbf{w}_{c}^{1}, \cdots, \mathbf{w}_{c}^{K}\right] \mathbf{z}-\mathbf{x}_{i}\right\|_{2} minzRK[wc1,,wcK]zxi2)我们用一个简单的形式来说明多中心的影响。

通过定义相似性,三元组约束要求一个示例比其他类更接近其对应的类

∀ j , S i , y i − S i , j ≥ 0 \forall j, \quad \mathcal{S}_{i, y_{i}}-\mathcal{S}_{i, j} \geq 0 j,Si,yiSi,j0

如前所述,最小化熵 H ( p ) H(p) H(p)有助于将示例拉到相应的中心。为了明确地打破这种联系,我们考虑引入像等式1中传统三元组损失中的小间隔,并将约束定义成如下形式:

∀ j j ≠ y i , S i , y i − S i , j ≥ δ \forall j_{j \neq y_{i}}, \quad \mathcal{S}_{i, y_{i}}-\mathcal{S}_{i, j} \geq \delta jj=yi,Si,yiSi,jδ

通过替换等式4中的相似性,我们可以得到HardTriple loss 如下:

ℓ HardTriple  ( x i ) = max ⁡ p ∈ Δ λ ( ∑ j ≠ y i p j ( S i , j − ( S i , y i − δ ) ) + p y i ( S i , y i − δ − ( S i , y i − δ ) ) ) + H ( p ) = − log ⁡ exp ⁡ ( λ ( S i , y i − δ ) ) exp ⁡ ( λ ( S i , y i − δ ) ) + ∑ j ≠ y i exp ⁡ ( λ S i , j )              ( 6 ) \begin{array}{l} \ell_{\text {HardTriple }}\left(\mathbf{x}_{i}\right)=\max _{\mathbf{p} \in \Delta} \lambda\left(\sum_{j \neq y_{i}} \mathbf{p}_{j}\left(\mathcal{S}_{i, j}-\left(\mathcal{S}_{i, y_{i}}-\delta\right)\right)\right. \left.+\mathbf{p}_{y_{i}}\left(\mathcal{S}_{i, y_{i}}-\delta-\left(\mathcal{S}_{i, y_{i}}-\delta\right)\right)\right)+H(\mathbf{p}) \\ =-\log \frac{\exp \left(\lambda\left(\mathcal{S}_{i, y_{i}}-\delta\right)\right)}{\exp \left(\lambda\left(\mathcal{S}_{i, y_{i}}-\delta\right)\right)+\sum_{j \neq y_{i}} \exp \left(\lambda \mathcal{S}_{i, j}\right)} \,\,\,\,\,\,\,\,\,\,\,\,(6) \end{array} HardTriple (xi)=maxpΔλ(j=yipj(Si,j(Si,yiδ))+pyi(Si,yiδ(Si,yiδ)))+H(p)=logexp(λ(Si,yiδ))+j=yiexp(λSi,j)exp(λ(Si,yiδ))(6)

HardTriple损失通过为每个类提供多个中心来改善SoftMax损失。 但是,它需要通过max运算在每个类别中获取最近的中心,而该运算并不平滑,并且分配在多个中心之间可能很敏感。 受SoftMax损失的启发,我们可以通过平滑max运算符来提高鲁棒性。

考虑如下问题:

max ⁡ k x i ⊤ w c k \max _{k} \mathbf{x}_{i}^{\top} \mathbf{w}_{c}^{k} kmaxxiwck

它相当于

max ⁡ q ∈ Δ ∑ k q k x i ⊤ w c k              ( 7 ) \max _{\mathbf{q} \in \Delta} \sum_{k} \mathbf{q}_{k} \mathbf{x}_{i}^{\top} \mathbf{w}_{c}^{k} \,\,\,\,\,\,\,\,\,\,\,\,(7) qΔmaxkqkxiwck(7)

我们把熵正则化器加到分布q上,如下所示:

max ⁡ q ∈ Δ ∑ k q k x i ⊤ w c k + γ H ( q ) \max _{\mathbf{q} \in \Delta} \sum_{k} \mathbf{q}_{k} \mathbf{x}_{i}^{\top} \mathbf{w}_{c}^{k}+\gamma H(\mathbf{q}) qΔmaxkqkxiwck+γH(q)

通过与命题1类似的分析,q的闭式解为:

q k = exp ⁡ ( 1 γ x i ⊤ w c k ) ∑ k exp ⁡ ( 1 γ x i ⊤ w c k ) \mathbf{q}_{k}=\frac{\exp \left(\frac{1}{\gamma} \mathbf{x}_{i}^{\top} \mathbf{w}_{c}^{k}\right)}{\sum_{k} \exp \left(\frac{1}{\gamma} \mathbf{x}_{i}^{\top} \mathbf{w}_{c}^{k}\right)} qk=kexp(γ1xiwck)exp(γ1xiwck)

把它带回等式7中,我们定义了示例 x i x_i xi 和类 C C C之间的松弛相似性如下:

S i , c ′ = ∑ k exp ⁡ ( 1 γ x i ⊤ w c k ) ∑ k exp ⁡ ( 1 γ x i ⊤ w c k ) x i ⊤ w c k \mathcal{S}_{i, c}^{\prime}=\sum_{k} \frac{\exp \left(\frac{1}{\gamma} \mathbf{x}_{i}^{\top} \mathbf{w}_{c}^{k}\right)}{\sum_{k} \exp \left(\frac{1}{\gamma} \mathbf{x}_{i}^{\top} \mathbf{w}_{c}^{k}\right)} \mathbf{x}_{i}^{\top} \mathbf{w}_{c}^{k} Si,c=kkexp(γ1xiwck)exp(γ1xiwck)xiwck

通过应用平滑的相似度,我们将SoftTriple损失定义为:

ℓ SoftTriple  ( x i ) = − log ⁡ exp ⁡ ( λ ( S i , y i ′ − δ ) ) exp ⁡ ( λ ( S i , y i ′ − δ ) ) + ∑ j ≠ y i exp ⁡ ( λ S i , j ′ ) \begin{aligned} &\ell_{\text {SoftTriple }}\left(\mathbf{x}_{i}\right) &=-\log \frac{\exp \left(\lambda\left(\mathcal{S}_{i, y_{i}}^{\prime}-\delta\right)\right)}{\exp \left(\lambda\left(\mathcal{S}_{i, y_{i}}^{\prime}-\delta\right)\right)+\sum_{j \neq y_{i}} \exp \left(\lambda \mathcal{S}_{i, j}^{\prime}\right)} \end{aligned} SoftTriple (xi)=logexp(λ(Si,yiδ))+j=yiexp(λSi,j)exp(λ(Si,yiδ))

图2说明了SoftMax损失和我们所提出的损失之间的差异;最后,我们将证明应用中心构造三元组约束的策略可以恢复原始三元组的约束。

在这里插入图片描述

图2. SoftMax损失与我们提出的损失之间的差异说明
与SoftMax损耗相比,我们首先增加FC层的尺寸,以便每个类别包括多个中心(例如,在此示例中每个类别2个中心)。 然后,我们通过不同的运算获得每个类的相似性。 最后,利用从每个类别获得的相似性来计算不同类别的分布。


定理1. 给定两个样本 x i x_i xi x j x_j xj, 他们来自同一个类别且有相同的最近中心。 x k x_k xk来自不同的类别,如果包含中心的三元组常数满足: x i ⊤ w y i − x i ⊤ w y k ≥ δ \mathbf{x}_{i}^{\top} \mathbf{w}_{y_{i}}-\mathbf{x}_{i}^{\top} \mathbf{w}_{y_{k}} \geq \delta xiwyixiwykδ,且我们假设 ∀ i , ∥ x i − w y i ∥ 2 ≤ ϵ \forall i,\left\|\mathbf{x}_{i}-\mathbf{w}_{y_{i}}\right\|_{2} \leq \epsilon i,xiwyi2ϵ,那么可以得到:
x i ⊤ x j − x i ⊤ x k ≥ δ − 2 ϵ \mathbf{x}_{i}^{\top} \mathbf{x}_{j}-\mathbf{x}_{i}^{\top} \mathbf{x}_{k} \geq \delta-2 \epsilon xixjxixkδ2ϵ

证明:

x i ⊤ x j − x i ⊤ x k = x i ⊤ ( x j − w y i ) + x i ⊤ w y i − x i ⊤ x k ≥ x i ⊤ ( x j − w y i ) + x i ⊤ ( w y k − x k ) + δ ≥ δ − ∥ x i ∥ 2 ∥ x j − w y i ∥ 2 − ∥ x i ∥ 2 ∥ w y k − x k ∥ 2 = δ − ∥ x j − w y i ∥ 2 − ∥ w y k − x k ∥ 2 ≥ δ − 2 ϵ \begin{array}{l} \mathbf{x}_{i}^{\top} \mathbf{x}_{j}-\mathbf{x}_{i}^{\top} \mathbf{x}_{k}=\mathbf{x}_{i}^{\top}\left(\mathbf{x}_{j}-\mathbf{w}_{y_{i}}\right)+\mathbf{x}_{i}^{\top} \mathbf{w}_{y_{i}}-\mathbf{x}_{i}^{\top} \mathbf{x}_{k} \\ \geq \mathbf{x}_{i}^{\top}\left(\mathbf{x}_{j}-\mathbf{w}_{y_{i}}\right)+\mathbf{x}_{i}^{\top}\left(\mathbf{w}_{y_{k}}-\mathbf{x}_{k}\right)+\delta \\ \geq \delta-\left\|\mathbf{x}_{i}\right\|_{2}\left\|\mathbf{x}_{j}-\mathbf{w}_{y_{i}}\right\|_{2}-\left\|\mathbf{x}_{i}\right\|_{2}\left\|\mathbf{w}_{y_{k}}-\mathbf{x}_{k}\right\|_{2} \\ =\delta-\left\|\mathbf{x}_{j}-\mathbf{w}_{y_{i}}\right\|_{2}-\left\|\mathbf{w}_{y_{k}}-\mathbf{x}_{k}\right\|_{2} \geq \delta-2 \epsilon \end{array} xixjxixk=xi(xjwyi)+xiwyixixkxi(xjwyi)+xi(wykxk)+δδxi2xjwyi2xi2wykxk2=δxjwyi2wykxk2δ2ϵ

定理1证明了在原三元组约束条件下,优化由中心组成的带间隔 δ \delta δ 的三元组可以保留大间隔特性。这也意味着更多的中心可能有助于减少类内差异 ϵ \epsilon ϵ。极端情况下,中心的数量等于样本的数量,此时 ϵ \epsilon ϵ 变为0。但是,添加更多的中心将增加最后一个完全连接的层的大小,并使优化速度变慢,并且计算量很大。此外,它可能会导致过度拟合的问题。因此,我们必须为每个类选择一个适当的中心数,这样在保持一个紧凑的中心集的同时,可以有一个小的近似误差。我们将在下一小节中演示该策略。

3.2 自适应中心数

为数据找到适当数量的中心是一个具有挑战性的问题,这也出现在无监督学习中,例如聚类。中心数K在效率和有效性之间进行权衡。在常规DML算法中,K等于原始样例数。它使三元组约束的总数达到原始实例数的三次方。在SoftMax损失中,K = 1将约束的数量减少到线性级,这效率很好,准确率不行。如果不事先知道每个类的分布,很难精确地设置K。与为每个类设置适当K的策略不同,我们建议设置足够大的K,然后鼓励相似的中心彼此合并。它可以保持生成中心的多样性,同时减少唯一中心的数目

对于每个中心 w t j w_{tj} wtj,我们可以生成一个矩阵

M j t = [ w j 1 − w j t , ⋯   , w j K − w j t ] ⊤ M_{j}^{t}=\left[\mathbf{w}_{j}^{1}-\mathbf{w}_{j}^{t}, \cdots, \mathbf{w}_{j}^{K}-\mathbf{w}_{j}^{t}\right]^{\top} Mjt=[wj1wjt,,wjKwjt]

如果 w j s w_j^s wjs w j t w_j^t wjt 是相似的,他们可以合并成相同的一个例如: ∥ w j s − w j t ∥ 2 = 0 \left\|\mathbf{w}_{j}^{s}-\mathbf{w}_{j}^{t}\right\|_{2}=0 wjswjt2=0,这是矩阵 M j t M_j^t Mjt 的第 s s s行的 L 2 L_2 L2正则。因此,我们对矩阵 M j t M_j^t Mjt中的行进行 L 2 L_2 L2正则来获取稀疏的中心集,这可以被写成 L 2 , 1 L_{2,1} L2,1正则

∥ M j t ∥ 2 , 1 = ∑ s K ∥ w j s − w j t ∥ 2 \left\|M_{j}^{t}\right\|_{2,1}=\sum_{s}^{K}\left\|\mathbf{w}_{j}^{s}-\mathbf{w}_{j}^{t}\right\|_{2} Mjt2,1=sKwjswjt2

通过在多个中心上累积 L 2 ; 1 L_{2; 1} L2;1范数,我们可以将第 j j j 类的正则化为:

R ( w j 1 , ⋯   , w j K ) = ∑ t K ∥ M j t ∥ 2 , 1 R\left(\mathbf{w}_{j}^{1}, \cdots, \mathbf{w}_{j}^{K}\right)=\sum_{t}^{K}\left\|M_{j}^{t}\right\|_{2,1} R(wj1,,wjK)=tKMjt2,1

因为 w w w 是单位向量,正则化可以简写成:

R ( w j 1 , ⋯   , w j K ) = ∑ t = 1 K ∑ s = t + 1 K 2 − 2 w j s ⊤ w j t R\left(\mathbf{w}_{j}^{1}, \cdots, \mathbf{w}_{j}^{K}\right)=\sum_{t=1}^{K} \sum_{s=t+1}^{K} \sqrt{2-2 \mathbf{w}_{j}^{s \top} \mathbf{w}_{j}^{t}} R(wj1,,wjK)=t=1Ks=t+1K22wjswjt

使用正则化器,我们的最终目标是:

min ⁡ 1 N ∑ i ℓ Soft Triple  ( x i ) + τ ∑ j C R ( w j 1 , ⋯   , w j K ) C K ( K − 1 ) \min \frac{1}{N} \sum_{i} \ell_{\text {Soft Triple }}\left(\mathbf{x}_{i}\right)+\frac{\tau \sum_{j}^{C} R\left(\mathbf{w}_{j}^{1}, \cdots, \mathbf{w}_{j}^{K}\right)}{C K(K-1)} minN1iSoft Triple (xi)+CK(K1)τjCR(wj1,,wjK)

其中 N 是样本总数

4. Experiments

我们在三个基准的视觉分类数据集上进行了实验:CUB-2011, Cars196 和 SOP。为了公平比较,我们按照其他实验进行了参数设置。尤其是我们使用了带有BN的Inception网络作为主要结构。预训练网络使用了在ImageNET ILSVRC2012 数据集训练的参数初始化,然后在目标数据上进行fine-tune。图片被裁剪成 224*224大小作为输入。在训练过程中,只使用随机水平镜像和随机裁剪作为数据增强。模型由Adam优化,批量大小为32个,迭代次数为50个。主干网和中心的初始学习率分别设置为1e-4和1e-2。然后,在20到40个迭代次数时,他们会被处以10。考虑到CUB-2011和Cars196中的图像与ImageNet中的图像相似,我们在这两个数据集上将BN冻结,并在另一个数据集上进行BN训练。实例和中心的嵌入在实验中具有单位长度。

我们将所提出的的triplet loss和normalized SoftMax loss进行了比较。softMax loss 见等式3,softTriple 见等式10。在softTriple中我们设置 τ = 0.2 \tau = 0.2 τ=0.2 γ = 0.1 \gamma=0.1 γ=0.1。除此之外,我们设置小间隔 δ = 0.01 \delta=0.01 δ=0.01 ,中心的数量 K = 10 K = 10 K=10

我们在检索和聚类任务上使用不同方法评估了所学习到的embedding的性能。对于检索任务,我们使用了 Recall@K指标,聚类的效果使用NMI指标。

4.1 CUB-2011

首先,我们在细粒度鸟类数据集CUB-2011比较了方法,它由200种鸟类,11788张图像组成。按照通常的做法,我们将数据集拆分为前100个类用于训练,其余用于测试。我们注意到,不同的研究反馈了不同尺寸的embedding,而嵌入尺寸对性能有显著影响。为了公平起见,我们使用了64维度的embedding,该维度是许多现存方法所采用的,我们还使用了512维的特征embedding,该维度在很多数据集上达到了最好的结果。

表1 总结了64维度embedding的结果

4.2 Cars196

  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 深度度量学习(deep metric learning)是一种深度学习技术,旨在学习数据之间的相似度度量。它可以用于许多应用程序,例如人脸识别、图像检索和推荐系统。通过学习数据之间的相似度度量,深度度量学习可以使相似的数据点更加接近,而不相似的数据点更加远离。这种技术可以提高许多应用程序的准确性和效率。 ### 回答2: Deep metric learning是指在深度学习模型中建立度量函数,用于计算不同数据样本之间的距离和相似度,并且能够在训练过程中不断地优化这个度量函数,以使得相似的样本被拉近,不相似的样本被推远。 在实际应用中,deep metric learning主要用于图像检索、人脸识别、视觉跟踪等领域。通过学习深度度量函数,可以实现对于特定场景下的数据,建立更加准确的相似度度量,提升模型性能。 Deep metric learning的主要挑战是如何构建合适的损失函数,以实现良好的度量学习。通常使用的有对比损失(contrastive loss)、三元组损失(triplet loss)、n-pair损失等。对于不同类型的数据,选择不同的损失函数往往可以取得更好的效果。 除此之外,选取合适的模型架构和实现技巧也非常重要,例如使用卷积神经网络(CNN)进行特征提取、使用欧氏距离或余弦相似度进行度量、设置动态采样策略以处理数据不平衡等。 总之,deep metric learning作为一种建立深度度量函数的技术,具有广泛的应用前景和研究意义,同时也需要在算法、数据、技术等多个方面进行不断的探索和优化。 ### 回答3: 深度度量学习是一种学习如何将多个样本映射到其中一个嵌入空间的技术。通俗来讲,它可以将相似的样本映射到接近的位置,不相似的样本映射到远离的位置。这个技术可以为计算机视觉领域中许多问题提供强力的支持,例如人脸识别、目标识别和图像聚类等问题。 在深度度量学习的技术中,我们通常会使用神经网络来实现样本嵌入的映射。神经网络可以学习到样本之间的相似性和距离度量,它可以通过训练来学习嵌入空间的参数,并且最终能够将样本嵌入到具有良好性能的空间中。 在深度度量学习中最流行的方法是对比损失函数,目的是通过学习网络参数使得相似的样本更加接近,并使不相似的样本更加远离。具体来说,对比损失函数通过比较不同的样本对来构建一个损失函数,这些样本对由相同类别或不同类别的样本组成。 深度度量学习可以概括为三个阶段:训练、验证和测试。在训练阶段,我们通过对神经网络模型进行监督来学习样本嵌入空间和度量。在验证阶段,我们可以通过检查嵌入空间中的样本分布来检查模型的性能和泛化能力。在测试阶段,我们可以使用已学习好的模型来计算未知样本的距离度量并进行比对。 总的来说,深度度量学习技术是一种重要的技术,可以在计算机视觉领域的许多问题中发挥重要的作用。它可以通过学习网络参数,使得相似的样本更聚集,不相似的样本更分散,提高模型的准确性和鲁棒性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值