OpenFace学习(1):安装配置及人脸比对

26 篇文章 21 订阅
24 篇文章 5 订阅

前言

前几天在网上看到了openface(链接),觉得挺有趣就下载配置了一下,稍微修改了一下跑了个demo,效果还是很不错的。这里分享下安装配置的过程以及demo。

简介

openface是一个基于深度神经网络的开源人脸识别系统,由卡耐基梅隆大学的B. Amos主导。代码全部开源在github上了,还提供了一些预训练模型。该系统是参考CVPR2015的:FaceNet: A Unified Embedding for Face Recognition and Clustering实现的,感兴趣的话可以读读这篇经典论文。
官网:http://cmusatyalab.github.io/openface/
代码:https://github.com/cmusatyalab/openface/

环境搭建

我只是在笔记本上搭建了环境所以涉及到GPU的CUDA驱动的部分没有安装,只是装了CPU版本的,速度也还可以。我的电脑上此前就配好了opencv、dlib等环境,所以实际配置时仅仅是配置了Torch而已。网上也有很多配置环境的教程,所以下面简要带过。
1、OpenCV
直接用命令行安装:

sudo apt-get install libopencv-dev
sudo apt-get install python-opencv

注:这种方式只能装opencv2的,如果想装opencv3的请自行编译源码安装,可以参考:https://www.cnblogs.com/dylancao/p/7879818.html

2、dlib
关于这个库的安装可以参考我以前写的博客:https://blog.csdn.net/hongbin_xu/article/details/76284134
可以从github上下载源码编译安装也可以直接用命令行安装。

sudo pip install dlib

据说直接pip安装dlib会碰到一些问题,我是直接编译源码安装的,按照步骤来一般不会出问题。
源码编译安装可以参考:https://blog.csdn.net/zmdsjtu/article/details/72642521?utm_source=itdadao&utm_medium=referral

3、下载openface源码

git clone https://github.com/cmusatyalab/openface.git 

另外把依赖的python库安装一下:

cd openface
sudo pip install -r requirements.txt

4、安装Torch

git clone https://github.com/torch/distro.git ~/torch --recursive
cd torch
bash install-deps
./install.sh

中途可能执行./install.sh时从github下载文件时会花费较多时间,如果进程中断后,可以执行./update.sh继续安装。
安装完成后,使刚刚配置的环境变量立刻生效:

source ~/.bashrc

5、安装依赖的 LUA库
由于openface中用到了lua语言,所以还需要安装一些lua库。
如果torch安装成功,应该可以在下面的目录中找到luarocks这个文件:

/home/xhb/torch/install/bin/

如果没有就手动安装luarocks

sudo apt-get install luarocks

两个都是一样的,接下来就以前者为例了:
找到torch中的luarocks来安装一些包:
注:cunn使用了cuda,如果不使用GPU来跑的话,不需要安装这个;fblualib和torchx都是用来训练DNN的,建议安装。

/home/xhb/torch/install/bin/luarocks install dpnn  
/home/xhb/torch/install/bin/luarocks install nn  
/home/xhb/torch/install/bin/luarocks install optim  
/home/xhb/torch/install/bin/luarocks install csvigo  
/home/xhb/torch/install/bin/luarocks install cunn
/home/xhb/torch/install/bin/luarocks install fblualib  
/home/xhb/torch/install/bin/luarocks install torchx  

安装结束后,用指令th来验证是否安装成功。

6、编译openface源码

python setup.py build
sudo python setup.py install

7、验证几个模块是否安装成功
python中输入:

import cv2
import dlib
import openface

如果没有报错,即安装成功。

8、下载预训练模型
在源码中提供了下载模型的脚本,运行即可自动下载几个模型文件:

cd openface
./models/get-models.sh

但是,由于国外的服务器可能访问受限,下载可能极慢。所以需要采取一些其他方法来下载模型,“科学上网”都懂得。
也可以直接用迅雷来下载文件:
http://dlib.net/files/shape_predictor_68_face_landmarks.dat.bz2
文件下载好后,放到./models/dlib中。

https://storage.cmusatyalab.org/openface-models/nn4.small2.v1.t7
文件下载好后,放到./models/openface中。

https://storage.cmusatyalab.org/openface-models/celeb-classifier.nn4.small2.v1.pkl
文件下载好后,放到./models/openface中。

随后再执行./models/get-models.sh,验证无误即可:
png

demo

代码

log.py

这段代码是用来配置终端打印输出信息的,供另外一个py代码调用。

# *_*coding:utf-8 *_*
# author: 许鸿斌
# 邮箱:2775751197@qq.com

import logging
import sys

# 获取logger实例,如果参数为空则返回root logger
logger = logging.getLogger('Test')
# 指定logger输出格式
formatter = logging.Formatter('%(asctime)s %(levelname)-8s: %(message)s')
# 文件日志
# file_handler = logging.FileHandler("test.log")
# file_handler.setFormatter(formatter)  # 可以通过setFormatter指定输出格式
# 控制台日志
console_handler = logging.StreamHandler(sys.stdout)
console_handler.formatter = formatter  # 也可以直接给formatter赋值
# 为logger添加的日志处理器
# logger.addHandler(file_handler)
logger.addHandler(console_handler)
# 指定日志的最低输出级别,默认为WARN级别
logger.setLevel(logging.INFO)

face_compare.py

这里是实际对人脸进行匹配的代码。

# *_*coding:utf-8 *_*
# author: 许鸿斌
# 邮箱:2775751197@qq.com

import time
start = time.time()

import cv2
import itertools
import os
import numpy as np
import openface
import argparse
from log import logger

dlib_model_dir = '/home/xhb/文档/Packages/openface/models/dlib'
openface_model_dir = '/home/xhb/文档/Packages/openface/models/openface'

parser = argparse.ArgumentParser()
parser.add_argument('imgs', type=str, nargs='+', help='Input images.')
parser.add_argument('--dlibFacePredictor', type=str, help="Path to dlib's face predictor.", default=os.path.join(dlib_model_dir, "shape_predictor_68_face_landmarks.dat"))
parser.add_argument('--networkModel', type=str, help="Path to Torch network model.", default=os.path.join(openface_model_dir, 'nn4.small2.v1.t7'))
parser.add_argument('--imgDim', type=int, help="Default image dimension.", default=96)
parser.add_argument('--verbose', action='store_true')

args = parser.parse_args()

if args.verbose:
    logger.info("Argument parsing and loading libraries took {} seconds.".format(time.time() - start))

start = time.time()
align = openface.AlignDlib(args.dlibFacePredictor)
net = openface.TorchNeuralNet(args.networkModel, args.imgDim)
if args.verbose:
    logger.info("Loading the dlib and OpenFace models took {} seconds.".format(
        time.time() - start))

def getRep(imgPath):
    if args.verbose:
        logger.info("Processing {}.".format(imgPath))
    bgrImg = cv2.imread(imgPath)
    if bgrImg is None:
            raise Exception("Unable to load image: {}".format(imgPath))
    rgbImg = cv2.cvtColor(bgrImg, cv2.COLOR_BGR2RGB)

    if args.verbose:
            logger.info("Original size: {}".format(rgbImg.shape))   

    start = time.time()
    faceBoundingBox = align.getLargestFaceBoundingBox(rgbImg)
    if faceBoundingBox is None:
        raise Exception("Unable to find a face: {}".format(imgPath))
    if args.verbose:
        logger.info("Face detection took {} seconds.".format(tim.time() - start))

    start = time.time()
    alignedFace = align.align(args.imgDim, rgbImg, faceBoundingBox, landmarkIndices=openface.AlignDlib.OUTER_EYES_AND_NOSE)     
    if alignedFace is None:
        raise Exception("Unable to align image: {}".format(imgPath))
    if args.verbose:
        logger.info("Face alignment took {} seconds.".format(time.time() - start))

    start = time.time()
    rep = net.forward(alignedFace)  
    if args.verbose:
        logger.info("OpenFace forward pass took {} seconds.".format(time.time()-start))
        logger.info("Representation:")
        logger.info(rep)

    return rep

for (img1, img2) in itertools.combinations(args.imgs, 2):
    distance = getRep(img1) - getRep(img2)
    logger.info("Comparing {} with {}.".format(img1, img2))
    logger.info("Squared l2 distance between representations: {:0.3f}".format(np.dot(distance, distance)))

代码都比较简单,不做详细介绍了。但是,还有几个地方要注意修改一下:

dlib_model_dir = '/home/xhb/文档/Packages/openface/models/dlib'
openface_model_dir = '/home/xhb/文档/Packages/openface/models/openface'

这里两个目录分别指的是存放我们之前下载模型的存放的目录,修改成自己电脑中对应的路径就行。
目录下应该有如下图中所示的文件:
png

运行结果

我在网上随便搜集了一些图片,用来测试:
png
在终端下运行face_compare.py

python face_compare.py ./test_images/*

运行结果截图如下:
png
同一个人脸的特征向量之间的欧式距离比较小,一般都小于1;不同人脸的特征向量之间的欧式距离较大,一般都有1.5左右。

后记

最近都在忙毕业论文,另外还要参加学校的足球比赛,学习之余还需要经常去拉练体能,没有多少时间上博客。下次有时间,再写几个openface的demo,或者复现一下facenet,感觉还是挺有趣的。

参考资料:
1、https://blog.csdn.net/itas109/article/details/50790139
2、http://cmusatyalab.github.io/openface/
3、https://blog.csdn.net/weixinhum/article/details/77046873
4、https://github.com/cmusatyalab/openface/

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值