论文:FaceNet: A Unified Embedding for Face Recognition and Clustering
来自CVPR2015人脸识别的一篇文章
传统的基于CNN的人脸识别方法为:利用CNN的siamese网络来提取人脸特征,然后利用SVM等方法进行分类
而这篇文章他们提出了一个方法叫FaceNet,他直接学习图像到欧式空间上点的映射,其中呢,两张图像所对应的特征的欧式空间上的距离直接对应着两个图像是否相似
而2021AAAI文章Noise Estimation Using Density Estimation for Self-Supervised Multimodal Learning
里面的Soft Max Margin Ranking Loss函数也与这种方法有异曲同工之妙,如下:
如这个例子:图像的类内距离(横向)明显小于类间距离,图中数字代表图像特征之间的欧氏距离
这篇文章的创新点就是提出了一种损失函数,直接优化特征本身,用特征空间上的点的距离来表示两张图像是否是同一类
前面部分与CNN是相同的,只是后面接了一个特征的归一化(使特征的||f(x)||²=1),所有图像的特征都会映射到一个超球面上,接着再去优化这些特征,而损失函数(优化函数),就是最大的创新点
Triple loss:
意思是通过学习,使得类间距离要大于类内距离:(原来空间可能不是这个样子)
函数为:
用公式来表示就是左边类内距离(position)要小于右边类间的距离,这个约束需要在所有的Triplet图像对上都成立
转换一下就变成了损失函数,即(最小化类内距离-类间距离+边际)
但是,同时训练所有三元组是代价非常之大的,所以不现实
我们要挑选一部分进行训练,这一部分就是最难区分的图相对
对于一张人脸图片,我们,要挑选一张hard positive,假设有1000人,每人有20张图片
即另外19张图片中,跟他最不相似的图片
同时也需要选择一张hard negative,即从20*999图像中,挑选最为相似的图片
挑选hard postive和hard negative有两种方法,offline和online,具体差别只是在训练上