阅读笔记-PRECISE ADJACENT MARGIN LOSS FOR DEEP FACE RECOGNITION

PRECISE ADJACENT MARGIN LOSS FOR DEEP FACE RECOGNITION

深度人脸识别的精确相邻边缘损失

1、这篇论文要解决什么问题?要验证一个什么科学假设?

问题:首先,在以往的损失函数中提到的“边际”是Softmax 决策边界之间的边际,它不代表训练集中不同类别之间的真实的边际;其次,以往的损失函数对所有可能的类对组合施加了边界,这是不必要的。

验证PAM损失(精确邻接边际损失)比现有的基于边际的损失具有更好的几何解释。

2、这篇论文有哪些相关研究,这些研究是怎么分类的?有哪些研究员值得关注?

这篇论文对softmax、L- Softmax loss、A-Softmaxloss、AM-Softmax loss 和Arc- Face loss进行了研究。

3、论文中提到的解决方案是什么,关键点在哪儿?

在论文中提出了精确相邻边距损失(PAM loss),它赋予“边距”一种含义,表示训练集中不同类之间的真实边距。与上面的损失不同,PAM损失只对有限数量的类对优化边际。

关键点如下:

  1. 提出了PAM算法来提高深度特征的识别能力。PAM损失是第一个使用训练集中不同类之间的实际差值的损失。
  2. 为了实现PAM,提出了一种学习算法来获取每个类的范围( 即类中心与类边缘之间的余弦相似度) 。

4、论文中的实验是如何设计的?各个实验分别得到了什么结论?

实验一:提供了在两个类别的情况下上述损失函数的2D可视化。

实验二:用Tensorflow实现了四种方案,通过结合使用不同的损失函数 :ResNet + Softmax, ResNet + AM-Softmax, ResNet + AM-Softmax + PAM loss v1,ResNet + AM-Softmax + PAM loss v2。为了方便,在实验结果中分别使用 “ Softmax” 、 “ AM-Softmax”、“PAM loss v1”和“PAM loss v2”来表示这四种方案。

所有实验都使用 VGGFace2作为训练集。为了保证实验结果的可靠性,删除了 VGGFace2中可能与基准测试集重叠的人脸图像。最终的训练集包含了来自 8000 多个身份的 305 万张面部图像。

对于实验中使用的所有人脸数据集,都使用MTCNN进行人脸检测。如果对一个训练图像检测MTCNN失败,就将该图像从训练集中去除。如果MTCNN在测试图像上失败,使用由官方提供的标记或边界框。由于学习率在早期不稳定,超参数 λ 在前 275 个时期被设置为0。之后,手动优化 λ,因为它对性能不是很敏感,所以只是在每个测试集中尝试多个不同的值,并选择导致最佳结果的值。

表 2显示了本文方法和最新研究方法在 LFW和YTF数据集上的结果,可以看出:在LFW上,PAM loss 的两个版本均优于相关方法Softmax、L-Softmax、A-Softmax 和 AM-Softmax。FaceNet具有与 PAM loss v1 相同的准确性。然而,FaceNet使用了2亿张图像进行训练,而PAM loss 只使用了305万张图像进行训练。与其他先进的方法相比,PAM损耗具有最高的验证精度。在 YTF 数据集上,PAM loss v1 的准确率为96.14%,高于其他所有方法。PAM loss v2 在准确性上与Marginal loss 相似,但Marginal loss 使用了更大的训练集,在 LFW上性能较差。在 LFW和YTF 数据集上的结果证明了该方法的有效性和最先进的性能。

实验三:对MegaFace 数据集和FaceScrub数据集进行实验。遵循 MegaFace Challenge 1 的实验协议,其中MegaFace设置为干扰集,FaceScrub设置为测试集。评估代码由MegaFace团队提供。

图 2 和图 3 分别为MegaFace Set 1上 100万干扰物时的CMC曲线和ROC 曲线。基准测试方法(包括Barebones FR、SIATMMLAB、Vocord 和 Faceall)的结果是由MegaFace 团队提供

的功能生成的。从图 2 和图 3 可以看出,PAM loss v1 和PAM loss v2 比Softmax、AM-Softmax 等基准方法具有更好的识别和验证性能。两幅图中 PAM损失 v2 都优于 PAM损失v1,说明 PAM损失 v2 在干扰量为 100 万的情况下具有更强的能力。MegaFace 和 FaceScrub 数据集的结果证实了所提方法的有效性。

5.用于定量评估的数据集是什么?代码开源的话找到链接

实验一:LFW、YTF

实验二:VGGFace2

实验三:MegaFace 和 FaceScrub 数据集

6、这篇论文到底有什么贡献?(三句话内说明)新在什么地方?

这篇论文提出了 PAM损失,它赋予了“边际”一种含义,表示训练集中不同类之间的真实边际。为了实现 PAM,还提出了一种学习算法来获取每个类的范围。在LFW、YTF、MegaFace和 FaceScrub数据集上进行了大量的实验。结果证明了所提方法的有效性,并证实了PAM性能的先进性。

  • 29
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值