1.背景
both the softmax loss and the triplet loss(出自facenet) have some drawbacks(缺点)。
softmax loss存在的问题:
(1)输出矩阵是固定大小的
,也就是说识别类型数量是随着n线性增加的。 (2)对于开集分类问题(人脸识别),学习的特征区分度不足。
![](https://i-blog.csdnimg.cn/blog_migrate/8a07fc19cc7937dc3638b115acb0f65e.png)
triplet loss的问题:(1)三元组的数据集,对于大规模数据集出现组合爆炸。(2)
semi-hard triplets
难以收敛
2.相关工作
分类中最常用的softmax loss:
其中表示第i个样本的特征值,并属于第
的类别。本文将特征值维度设置为512,
表示第 j 列的权重of the weight
以及bias项
,N为batchsize,n为分类数。
然而,Softmax损失函数没有显式地优化特征嵌入以强制提高类内样本的相似性和类间样本的多样性,这导致在类内外观变化较大的情况下深度人脸识别的性能差距,年龄缺陷,以及大规模测试场景或万亿对。
因此,简单的,将,然后将
使用内积的形式表示,其中
是wj和xj之间的夹角。然后用L2 Normalization处理Wj使得||Wj||=1,我们还通过L2 Normalization修复了特征x,并将其重新缩放为s。
(#注释What is embedding:
Translate large sparse vectors into a lower-dimensional space that preserves semantic relationships(将大型稀疏向量转换为保留语义关系的低维空间))
对x和w做Normalization使得预测输出仅依赖于feature和weight之间的夹角,因此,学习到
的embedding features 分布在半径为s的超球面上。
![](https://i-blog.csdnimg.cn/blog_migrate/1ddb5aecd19bfb99c23c58a04412df7f.png)
由于embedding features 分布在超球面上的每个特征中心周围 ,我们添加了一个边界惩罚项m在xi和wyi之间,来同时增强类内紧凑性和类间差异性。