python人脸比对算法_人脸比对算法-人脸比较(1:N)

本文探讨了1:N人脸比对的挑战,介绍了基于FaceNet框架的改进方法,包括使用MTCNN进行面部对齐,采用COCO损失替换Triple Loss以提高识别精度。实验在华为训练集上达到了99.92%-99.97%的准确性。此外,文章还讨论了面部特征点定位、单应性矩阵和ResNet在人脸识别中的作用。
摘要由CSDN通过智能技术生成

第1章前言

设计一个1:N的人脸,随着N的增加,最小化精度降低的解决方案具有很强的现实意义。人脸1:N的框架大致可分为:人脸检测,人脸对齐,人脸映射和人脸识别LOSS设计,其结构如下图所示:

图1:人脸1的主帧:N

面孔1:N在学术界有着广泛的研究。人脸检测和人脸对齐(MTCNN,TCDCN等)在行业中已经取得了不错的成绩。当前的主要性能改进包括:DeepFace,DeepID,框架为CNN + Softmax,并且网络在用于人脸识别的第一个FC层中形成了高度区分性的人脸特征。对于人脸识别的特征映射,不能满足人脸比较的需求; DeepID2,DeepID2 +,DeepID3均使用Softmax +对比损失,使得相似特征的L2距离尽可能小,不同类型特征的L2距离大于一定间隔。 FaceNet是目前引用最多的人脸比较方法。提出了三重损失,它以三重的形式进行了优化,以获得类内部的紧凑性和类间的差异。 SphereFace是L-Softmax的改进,它对权重W进行了归一化人脸比对算法,使训练的重点更多地放在优化深度特征映射和特征矢量角度上,并减少了样本数量不均匀的问题。中心损失为每个类别学习一个中心,并将每个类别的所有特征向量拉到相应类别的中心,并将其与Softmax结合使用; COCO损失对权重c进行归一化,对特征f进行归一化并相乘。LFW的比例因子达到99.86%;损失函数设计还包括:L2-Softmax,附加边际损失,CosFace,ArcFace等。

基于FaceNet框架&#x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值