FaceNet源码解读:史上最全的FaceNet源码使用方法和讲解(一)(附预训练模型下载)

文章地址:史上最全的FaceNet源码使用方法和讲解(一)(附预训练模型下载)转载请注明出处。


前提条件:已安装并配置好Tensorflow的运行环境。

第一步:准备facenet程序:

一、下载FaceNet源码。

下载地址:facenet源码

二、精简代码。

作者在代码里实现了很多功能,但是对于初学者来说,很多代码是没有必要的,反倒找不到学习这个程序的入口。建议先精简一下代码,便于读懂代码:新建一个文件夹,取名:facenet,把源码中的src文件夹直接拷贝过来。

注:便于大家能够看懂代码,以上两步我已经完成,同时,自己运行程序之后,还对里边的代码做了详细的注释,如果想先了解facenet的源码,强烈建议下载这个,下载地址:facenet精简版

当然,大家别忘了顺手点个星哦~~~

 

第二步:下载预训练模型。

facenet提供了两个预训练模型,分别是基于CASIA-WebFace和MS-Celeb-1M人脸库训练的,不过需要去谷歌网盘下载,这里给其中一个模型的百度网盘的链接:链接: 预训练模型百度网盘地址 密码: 12mh

下载完成后,把预训练模型的文件夹拷贝在刚才的文件夹里。用pycharm打开这个工程文件如图:

 

 

第三步:运行人脸比对程序(compare.py)。

facenet可以直接比对两个人脸经过它的网络映射之后的欧氏距离。 

-1、在compare.py所在目录下放入要比对的文件1.png和2.png。
-2、运行compare.py文件,但是会报错如下:

这是因为这个程序需要输入参数,在上方的工具栏里选择Run>EditConfigurations ,在Parameters中配置参数:20170512-110547 1.png 2.png。再次运行程序

 

可以看到,程序会算出这两个图片的差值矩阵

 

第四步:图片预处理——运行人脸对齐程序(align\align_dataset_mtcnn.py)。

我们可以下载LFW数据集用来测试这个程序,也为后边的训练函数做好数据准备。

下载链接:http://vis-www.cs.umass.edu/lfw/。下载后解压在data文件夹中。

 

因为程序中神经网络使用的是谷歌的“inception resnet v1”网络模型,这个模型的输入时160*160的图像,而我们下载的LFW数据集是250*250限像素的图像,所以需要进行图片的预处理。

在运行时需要输入的参数:

input_dir:输入图像的文件夹(E:\facenet\data\lfw E:\facenet\data\lfw)

output_dir:输出图像的文件夹(E:\facenet\data\lfw E:\facenet\data\lfw_160)

指定裁剪后图片的大小:--image_size 160 --margin 32 --random_order(如果不指定,默认的裁剪结果是182*182像素的)

比如我的是:E:\facenet\data\lfw E:\facenet\data\lfw_160 --image_size 160 --margin 32 --random_order

如果在pycharm中运行,按照同样的方法配置以上参数如下:

 

第五步:运行训练程序:(train_tripletloss.py)。

前边已经下载并处理好了LFW的数据集,现在,可以进行训练了。

运行之前,要在train_tripletloss.py中把加载数据的路径改成自己的数据集所在路径,如下图:

 

 

注:train_tripletloss.py和train_softmax.py的区别:这是作者对论文做出的一个延伸,除了使用facenet里提到的train_tripletloss三元组损失函数来训练,还实现了用softmax的训练方法来训练。当然,在样本量很小的情况下,用softmax训练会更容易收敛。但是,当训练集中包含大量的不同个体(超过10万)时,最后一层的softmax输出数量就会变得非常大,但是使用train_tripletloss的训练仍然可以正常工作。

 

更多内容参见:史上最全的FaceNet源码使用方法和讲解(二)

 

最后,附上原来的文件中各py文件的作用(持续更新):

 

一、主要函数

align/ :用于人脸检测与人脸对齐的神经网络

facenet :用于人脸映射的神经网络

util/plot_learning_curves.m:这是用来在训练softmax模型的时候用matlab显示训练过程的程序

 

二、facenet/contributed/相关函数:

1、基于mtcnn与facenet的人脸聚类

代码:facenet/contributed/cluster.py(facenet/contributed/clustering.py实现了相似的功能,只是没有mtcnn进行检测这一步

主要功能:

① 使用mtcnn进行人脸检测并对齐与裁剪

② 对裁剪的人脸使用facenet进行embedding

③ 对embedding的特征向量使用欧式距离进行聚类

 

2、基于mtcnn与facenet的人脸识别(输入单张图片判断这人是谁)

代码:facenet/contributed/predict.py

主要功能:

① 使用mtcnn进行人脸检测并对齐与裁剪

② 对裁剪的人脸使用facenet进行embedding

③ 执行predict.py进行人脸识别(需要训练好的svm模型)

 

3、以numpy数组的形式输出人脸聚类和图像标签

代码:facenet/contributed/export_embeddings.py

主要功能:

① 需要对数据进行对齐与裁剪做为输入数据

② 输出embeddings.npy;labels.npy;label_strings.npy

 

个人知乎主页地址:知乎个人主页,主要写大数据分析,机器学习等相关系列文章,还有一些新发布科技产品的思考,欢迎关注。

  • 106
    点赞
  • 507
    收藏
    觉得还不错? 一键收藏
  • 205
    评论
好的,以下是一个简单的预训练模型源码示例,主要包括数据预处理、模型定义、训练和测试等步骤: 1. 数据预处理 首先需要准备好预训练模型所需的语料数据,这里以英文数据为例,可以使用nltk库来进行数据预处理和分词等操作: ```python import nltk from nltk.corpus import gutenberg # 读取语料数据 corpus = gutenberg.raw('shakespeare-hamlet.txt') # 分词 tokens = nltk.word_tokenize(corpus) # 去除标点符号和停用词 stop_words = set(nltk.corpus.stopwords.words('english')) words = [word.lower() for word in tokens if word.isalpha() and word.lower() not in stop_words] ``` 2. 模型定义 定义一个简单的词嵌入模型,输入为一个单词,输出为它在词表中的向量表示。这里使用Python中的PyTorch库来定义模型: ```python import torch import torch.nn as nn class WordEmbeddingModel(nn.Module): def __init__(self, vocab_size, embedding_dim): super(WordEmbeddingModel, self).__init__() self.embedding = nn.Embedding(vocab_size, embedding_dim) def forward(self, x): x = self.embedding(x) return x ``` 3. 训练模型 定义好模型后,就可以开始训练了。这里使用随机梯度下降(SGD)算法来优化模型参数,每次使用一个单词作为输入,预测其下一个单词,并计算损失函数: ```python # 定义超参数 vocab_size = len(set(words)) embedding_dim = 100 learning_rate = 0.001 num_epochs = 1000 # 定义模型和损失函数 model = WordEmbeddingModel(vocab_size, embedding_dim) criterion = nn.CrossEntropyLoss() optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate) # 开始训练 for epoch in range(num_epochs): for i in range(0, len(words)-1): input_word = torch.tensor([words[i]]) target_word = torch.tensor([words[i+1]]) # 前向传播和计算损失 output_word = model(input_word) loss = criterion(output_word, target_word) # 反向传播和更新参数 optimizer.zero_grad() loss.backward() optimizer.step() if (epoch+1) % 100 == 0: print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, loss.item())) ``` 4. 测试模型 训练完成后,可以测试模型的性能,这里可以输入一个单词,输出它的向量表示: ```python # 测试模型 test_word = 'king' test_word_idx = torch.tensor([words.index(test_word)]) test_word_vector = model(test_word_idx).detach().numpy() print('Word:', test_word) print('Vector:', test_word_vector) ``` 以上就是一个简单的预训练模型的示例源码,可以根据实际情况进行修改和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 205
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值