人脸识别模型训练

github地址:  face-recognition-supervised-by-center-loss

这里介绍我训练的人脸识别模型,放到了github上,各位看官路过的可以点个star

简介

这个仓库我提供了训练人脸深度神经网络的代码,框架使用的是pytorch。损失函数用的是center_loss。同时也提供了triplet_loss的实现。但是根据我的训练经验,用triplet_loss训练没有用center_loss准确度高。所以推荐center_loss。网络我使用的是标准的vgg16。你也可以根据自己的需求换成resnet 或者其他。我相信会获得更高的准确度(大概高两三个百分点的样子)。因为工作需求我选择了vgg16。训练数据我选择的是vggface2(8631个id 及300万照片)。MSLM 有更多的数据,用MSLM 训练我相信结果h会再好一点(大概一两个百分点)。测试数据集我选择的是LFW

训练结果 

vgg16+vggface2:   测试准确度:  0.967     auc:  0.99

  • 12
    点赞
  • 108
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
训练dlib人脸识别模型,您可以按照以下步骤进行操作: 1. 收集并准备数据集:获取一组包含人脸的图像,并将它们分为训练集和测试集。确保每个图像都标记有相应的人脸边界框或关键点。 2. 安装dlib库:在Python环境中安装dlib库。您可以使用pip命令来安装它:`pip install dlib`。 3. 数据集标注:使用dlib提供的工具(如imglab)标注您的数据集,以标记每个人脸的边界框或关键点。这些标注将用于训练模型。 4. 特征提取和训练:使用dlib库中的特征提取器和机器学习算法来训练人脸识别模型。以下是一个示例代码来完成这个步骤: ```python import dlib # 加载已标注的数据集 options = dlib.simple_object_detector_training_options() training_xml_path = 'training.xml' dlib.train_simple_object_detector(training_xml_path, 'model.svm', options) ``` 在上述示例中,我们使用`dlib.simple_object_detector_training_options()`创建训练选项。然后,我们使用`dlib.train_simple_object_detector()`函数来训练模型。其中,`training_xml_path`是已标注数据集的XML文件路径,`model.svm`是训练后的模型文件的保存路径。 5. 模型评估和调优:使用测试集来评估训练模型的性能。根据需要,您可以调整训练选项和参数,以提高模型的准确性和鲁棒性。 6. 应用模型:将训练好的人脸识别模型应用于新的图像或视频数据中,以进行人脸检测和识别。 请注意,这只是一个简单的示例,实际训练过程可能因您的数据集和需求而有所不同。同时,可能需要更多的数据和更复杂的模型来获得更好的识别结果。 希望这些步骤能帮助您开始使用dlib进行人脸识别模型训练。如果您需要更详细的说明或有其他问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值