FaceNet使用

前提条件:已安装并配置好Tensorflow的运行环境。

第一步:准备facenet程序:

一、下载FaceNet源码。

下载地址:facenet源码

二、精简代码。作者在代码里实现了很多功能,但是对于初学者来说,很多代码是没有必要的,反倒找不到学习这个程序的入口。建议先精简一下代码,便于读懂代码:新建一个文件夹,取名:facenet,把源码中的src文件夹直接拷贝过来。

 

注:便于大家能够看懂代码,以上两步我已经完成,同时,自己运行程序之后,还对里边的代码做了详细的注释,如果想先了解facenet的源码,强烈建议下载这个,下载地址: facenet精简版
当然,大家别忘了顺手点个星哦~~~
 

第二步:下载预训练模型。

facenet提供了两个预训练模型,分别是基于CASIA-WebFace和MS-Celeb-1M人脸库训练的,不过需要去谷歌网盘下载,这里给其中一个模型的百度网盘的链接:链接: 预训练模型百度网盘地址 密码: 12mh

下载完成后,把预训练模型的文件夹拷贝在刚才的文件夹里。用pycharm打开这个工程文件如图:

 

 

第三步:运行人脸比对程序(compare.py)。

 

facenet可以直接比对两个人脸经过它的网络映射之后的欧氏距离。 

-1、在compare.py所在目录下放入要比对的文件1.png和2.png。
-2、运行compare.py文件,但是会报错如下:

这是因为这个程序需要输入参数,在上方的工具栏里选择Run>EditConfigurations ,在Parameters中配置参数:20170512-110547 1.png 2.png。再次运行程序

 

可以看到,程序会算出这两个图片的差值矩阵

 

第四步:图片预处理——运行人脸对齐程序(align\align_dataset_mtcnn.py)。

我们可以下载LFW数据集用来测试这个程序,也为后边的训练函数做好数据准备。
下载链接:http://vis-www.cs.umass.edu/lfw/。下载后解压在data文件夹中。

因为程序中神经网络使用的是谷歌的“inception resnet v1”网络模型,这个模型的输入时160*160的图像,而我们下载的LFW数据集是250*250限像素的图像,所以需要进行图片的预处理。

在运行时需要输入的参数:

input_dir:输入图像的文件夹(E:\facenet\data\lfw E:\facenet\data\lfw)

output_dir:输出图像的文件夹(E:\facenet\data\lfw E:\facenet\data\lfw_160)

指定裁剪后图片的大小:--image_size 160 --margin 32 --random_order(如果不指定,默认的裁剪结果是182*182像素的)

比如我的是:E:\facenet\data\lfw E:\facenet\data\lfw_160 --image_size 160 --margin 32 --random_order

如果在pycharm中运行,按照同样的方法配置以上参数如下:

 

第五步:运行训练程序:(train_tripletloss.py)。

前边已经下载并处理好了LFW的数据集,现在,可以进行训练了。
运行之前,要在train_tripletloss.py中把加载数据的路径改成自己的数据集所在路径,如下图:
 
 

注:train_tripletloss.py和train_softmax.py的区别:这是作者对论文做出的一个延伸,除了使用facenet里提到的train_tripletloss三元组损失函数来训练,还实现了用softmax的训练方法来训练。当然,在样本量很小的情况下,用softmax训练会更容易收敛。但是,当训练集中包含大量的不同个体(超过10万)时,最后一层的softmax输出数量就会变得非常大,但是使用train_tripletloss的训练仍然可以正常工作。

 

最后,附上原来的文件中各py文件的作用(持续更新):

 

一、主要函数

align/ :用于人脸检测与人脸对齐的神经网络

facenet :用于人脸映射的神经网络

util/plot_learning_curves.m:这是用来在训练softmax模型的时候用matlab显示训练过程的程序

 

二、facenet/contributed/相关函数:

1、基于mtcnn与facenet的人脸聚类

代码:facenet/contributed/cluster.py(facenet/contributed/clustering.py实现了相似的功能,只是没有mtcnn进行检测这一步)

主要功能:

① 使用mtcnn进行人脸检测并对齐与裁剪

② 对裁剪的人脸使用facenet进行embedding

③ 对embedding的特征向量使用欧式距离进行聚类

 

2、基于mtcnn与facenet的人脸识别(输入单张图片判断这人是谁)

代码:facenet/contributed/predict.py

主要功能:

① 使用mtcnn进行人脸检测并对齐与裁剪

② 对裁剪的人脸使用facenet进行embedding

③ 执行predict.py进行人脸识别(需要训练好的svm模型)

 

3、以numpy数组的形式输出人脸聚类和图像标签

代码:facenet/contributed/export_embeddings.py

主要功能:

① 需要对数据进行对齐与裁剪做为输入数据

② 输出embeddings.npy;labels.npy;label_strings.npy

FaceNet是一个人脸识别系统,它使用深度学习算法来生成人脸的嵌入向量,这些向量可以用于人脸识别和验证。FaceNet由Google开发,其算法主要基于卷积神经网络和三元组损失函数。 如果你想使用C++来实现人脸比对,可以使用开源的Dlib库,它提供了一个现成的人脸识别模块,可以用来比对两张人脸的相似度。以下是一个简单的示例程序: ```c++ #include <dlib/image_processing/frontal_face_detector.h> #include <dlib/image_processing.h> #include <dlib/gui_widgets.h> #include <dlib/image_io.h> #include <iostream> #include <vector> #include <string> using namespace dlib; using namespace std; int main(int argc, char** argv) { if (argc < 3) { cout << "Usage: compare_faces <image1> <image2>" << endl; return 0; } frontal_face_detector detector = get_frontal_face_detector(); shape_predictor sp; deserialize("shape_predictor_68_face_landmarks.dat") >> sp; std::vector<matrix<rgb_pixel>> faces; for (int i = 1; i <= 2; ++i) { matrix<rgb_pixel> img; load_image(img, argv[i]); std::vector<rectangle> dets = detector(img); std::vector<full_object_detection> shapes; for (unsigned long j = 0; j < dets.size(); ++j) { full_object_detection shape = sp(img, dets[j]); shapes.push_back(shape); } std::vector<matrix<rgb_pixel>> face_chips; extract_image_chips(img, get_face_chip_details(shapes), face_chips); for (int j = 0; j < face_chips.size(); ++j) { matrix<rgb_pixel> face = face_chips[j]; faces.push_back(move(face)); } } if (faces.size() != 2) { cout << "Error: couldn't detect two faces in the input images." << endl; return 0; } typedef matrix<float, 0, 1> sample_type; typedef radial_basis_kernel<sample_type> kernel_type; typedef decision_function<kernel_type> dec_funct_type; typedef normalized_function<dec_funct_type> funct_type; std::vector<sample_type> samples; for (int i = 0; i < faces.size(); ++i) { matrix<float, 0, 1> face_descriptor = mean(mat(faces[i])); samples.push_back(face_descriptor); } funct_type learned_function; deserialize("dlib_face_recognition_resnet_model_v1.dat") >> learned_function; double distance = length(samples[0] - samples[1]); cout << "Distance between faces: " << distance << endl; return 0; } ``` 在这个示例程序中,我们首先使用Dlib的人脸检测器和面部特征点检测器来提取两张图片中的人脸,并对其进行裁剪和归一化。然后,我们使用FaceNet的预训练模型来计算两张人脸的嵌入向量,并计算它们之间的欧几里得距离作为相似度分数。 请注意,这只是一个简单的示例程序,实际应用中可能需要进行更多的优化和精度控制。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值