论文:Additive Margin Softmax for Face Verification
代码:https://github.com/happynear/AMSoftm
相似论文:CosFace: Large Margin Cosine Loss for Deep Face Recognition
摘要
- 在本文中,我们提出了一个概念简单和几何解释的目标函数,即AM-Softmax,用于人脸验证。
- 一般,人脸识别任务可以看作是一个度量学习问题,即类内聚合、类间远离
- 最近,L-Softmax[10]和SphereFace[9]被提出以乘法的方式结合角边缘。
- 最重要的是,我们在LFW和MegaFace上的实验表明,我们 AM-Softmax 都是 state-of-the-art
AM-Softmax
原理:
其中最关键的:
从图中得到公式(注意magin和m不是一个东西)
我们可以看到,当特征范数很小时,梯度范数可能非常大。
与其他loss比较
实验:
- 我们的损失函数是使用Caffe框架[4]实现的。
- 我们遵循Sphereface [9]的所有实验设置,包括图像分辨率、预处理方法和网络结构。
- MTCNN + 112 × 96 + 128-d
- resnet-20 layer
- 所有的网络都是从头开始训练的。 我们将重量衰减参数设置为5e−4。
- 批量大小为256,
- 学习率从0.1开始,在16K、24K和28K,除以10。 训练以30K迭代完成。
- 在训练过程中,我们只使用图像镜像来增强数据集。
我们用于培训的数据集是CASIA-Webface[22],其中包含来自10,575个身份的494,414张培训图像。 为了执行开放集评估,我们仔细地删除重叠的标识训练数据集(CASIAWebface[22])和测试数据集(LFW[3]和MegaFace[5])之间)。 最后,我们发现CASIA-Webface和LFW之间有17个重叠标识,42个重叠标识CASIA-Webface和Mega Face set1。 请注意,MegaFaceSet1中只有80个标识,即。 超过一半的身份已经在培训数据集中。 重叠去除的效果是值得注意的能够用于大型人脸(表4.2)。 为了严谨,本文中的所有实验都是基于清洁的数据集。清洗代码
去除重叠与原数据集比较