FaceNet: A Unified Embedding for Face Recognition and Clustering

本文有以下几个亮点:一是利用DNN直接学习到从原始图片到欧氏距离空间的映射,从而使得在欧式空间里的距离的度量直接关联着人脸相似度;二是引入triplet损失函数,使得模型的学习能力更高效。

这里写图片描述
本文的模型示意图如上,输入层后紧接着DNN,然后再运用L2正则化避免模型的过拟合,最后接上triplet损失函数层,以反映在人脸验证、识别和聚类中所想要的结果。这里的关键就是triplet损失函数的确定,我们想要的结果就是,找到嵌入函数f(x),使得所有人脸之间的距离较小,但不同配对人脸间的距离较大。

首先我们来看看本文中用到的网络模型:ZF-Net和GoogleNet。

这里写图片描述
在ZF-Net可以看到,在前几个卷积层中加入了1*1*d的卷积层, 有效的减小了参数的个数。但和GoogleNet相比,参数量还是很大。为了使得模型可以嵌入到移动设备中,本文中也对模型进行了裁剪,NNS1即只需要26M的参数和220M的浮点运算开销,NNS2则只有4.3M的参数和20M的浮点运算量,NN3和NN2的模型一样,但输入图片大小只有160*160,而NN4则是96*96,这样极大幅度的降低了对CPU的需求。

这里写图片描述
上图给出了在精确率和运算量上这四个模型之间的比较。可以看到,模型越复杂精确率越高,其所需的运算开销也会随之增大。
同时需要注意的是,NN2和NN1达到的精确率相当,但NN2所用的参数却大大减少,不过运算量却又没降下来。这是一个值得思考的地方。

接下来看看triplet损失函数的确定。嵌入函数f(x)将输入图片x嵌入到一个d维的欧式空间,同时对嵌入引入限制,即这里写图片描述。一如上述所述,我们需要使得配对人脸间的距离比任何其他人脸之间的距离都要小。假设定标图片记为这里写图片描述,配对图片记为这里写图片描述,其他图片记为这里写图片描述,则我们想要的效果是:
这里写图片描述。式中的a是强化配对图片和费配对图片之间边界的量,而T是在训练集上所有可能的triplet。所以,损失函数就可以写成:
这里写图片描述
需要注意的是,若生成所有可能的triplet,会导致很多的triplet满足条件,而这些triplet对训练没有任何益处且会导致收敛变慢,所以选择合适的triplet很关键。

为了加速收敛过程,选择那些不满足条件的triplet至为关键,即给定这里写图片描述,需要选定这里写图片描述使得述,同时这里写图片描述。不过计算上述两个量不方便,可以通过以下两种方法解决:
1)在数据子集上利用网络最近的检测点计算argmin和argmax,并且每n步线下生成triplets。
2)通过从小批量样本中选择hard positive/negtive样例来生成triplets。

同时本文也对该网络对图片质量、嵌入维度的大小以及训练集大小的敏感性做了分析。

实践发现该模型对图片质量的高低有着较好的鲁棒性,即使JPEG的质量降低20倍,性能仍然能保持。如下图所示:
这里写图片描述

对于嵌入维度而言,维度越大性能应该越好,但其需要的数据集也会变大,所以此处的衡量不能一概而论。
而增大训练集却是可以提高模型的性能,但因为网络的学习能力有限,一旦数据集达到某一极限时性能也开始达到瓶颈。

本文的triplets实现是个值得深入思考的地方。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值