Paddle实现人脸对比

人脸对比

人脸对比,顾名思义,就是对比两个人脸的相似度。本文将用Paddle实现这一功能。

PS:作者肝了整整3天才稍微搞明白实现方法

数据集准备

这里使用百度AI Studio的开源数据集:

人脸数据_数据集-飞桨AI Studio星河社区 (baidu.com)

这个数据集提供了500个人的人脸各100张,比较适合我们的项目。

根据这个数据集,很容易写出数据集类,文件名为face_dataset.py:

import numpy as np
from PIL import Image
import paddle
from random import shuffle


class FaceData(paddle.io.Dataset):

    def __init__(self, mode, num):
        super().__init__()
        # 训练集/测试集
        file = 'facecap/train_list.txt' if mode == 'train' else 'facecap/test_list.txt'
        self.imgs1 = []
        self.imgs2 = []
        self.labels = []
        # 控制相同人脸个数与不同人脸个数各占一半
        _1_count = 0
        with open(file) as f:
            # 读取数据集文件信息数据并洗牌
            lines = f.readlines()
            shuffle(lines)
            lines = lines[:num]
            print('read down')
            # 加载数据集
            for line1 in lines:
                line1 = line1.strip()
                img1, label1 = line1.split(' ')
                pil_img1 = Image.open(f'facecap\\{img1}').convert('RGB').resize((96, 96))
                for line2 in lines:
                    line2 = line2.strip()
                    img2, label2 = line2.split(' ')
                    if label1 == label2:
                        _1_count += 1
                        pil_img2 = Image.open(f'facecap\\{img2}').convert('RGB').resize((96, 96))
                        self.imgs1.append(np.array(pil_img1).transpose((2, 0, 1)) / 255.0)
                        self.imgs2.append(np.array(pil_img2).transpose((2, 0, 1)) / 255.0)
                        self.labels.append(1)
                    elif _1_count > 0:
                        _1_count -= 1
                        pil_img2 = Image.open(f'facecap\\{img2}').convert('RGB').resize((96, 96))
                        self.imgs1.append(np.array(pil_img1).transpose((2, 0, 1)) / 255.0)
                        self.imgs2.append(np.array(pil_img2).transpose((2, 0, 1)) / 255.0)
                        self.labels.append(0)
        self.imgs1 = np.array(self.imgs1, dtype=np.float32)
        self.imgs2 = np.array(self.imgs2, dtype=np.float32)
        self.labels = np.array(self.labels, dtype=np.float32)
        print('load down')

    def __getitem__(self, idx):
        return self.imgs1[idx], self.imgs2[idx], self.labels[idx]

    def __len__(self):
        return len(self.labels)

需要注意的是,PIL的图片维度与paddle CNN的维度不一样,需要使用transpose改变 

当然,使用这个数据集类读取数据是非常漫长的,因此我们创建了一个face_create_dataset.py,创建数据集对象并保存到本地:

from face_dataset import FaceData
import pickle

train_dataset = FaceData(mode='train', num=2000)
test_dataset = FaceData(mode='test', num=200)

pickle.dump(train_dataset, open('./database/train.data', 'wb'), protocol=4)
pickle.dump(test_dataset, open('./database/test.data', 'wb'), protocol=4)

 这里我们使用pickle保存对象,注意这里要指定protocol=4,以保证可以存储超过4G的大文件

最后,这个脚本会在本地的database文件夹下生成两个data文件,使用时只需要加载即可

孪生网络

既然要输入两张图片,就自然需要使用两张卷积网络,分别处理两张图片。但是人脸对比与输入顺序无关,这就要求两个网络对于同一张图片的输出是相同的,也就是这两个网络是相同的。即共享权重的网络。因此我们可以定义网络如下:

class FaceNet(paddle.nn.Layer):

    def __init__(self):
        super().__init__()
        # 共享权重的cnn网络
        self.cnn = paddle.nn.Sequential(
            paddle.nn.Conv2D(3, 16, 3, padding=1),
            paddle.nn.ReLU(),
            paddle.nn.MaxPool2D(2, 2),
            paddle.nn.Conv2D(16, 32, 3, padding=1),
            paddle.nn.ReLU(),
            paddle.nn.MaxPool2D(2, 2),
            paddle.nn.Conv2D(32, 64, 3, padding=1),
            paddle.nn.ReLU(),
            paddle.nn.MaxPool2D(2, 2),
            paddle.nn.Conv2D(64, 128, 3, padding=1),
            paddle.nn.ReLU(),
            paddle.nn.MaxPool2D(2, 2),
            paddle.nn.Flatten(),
            paddle.nn.Linear(4608, 5)
        )

    def forward(self, face1, face2):
        # 前向传播:使用cnn网络分别输出两个结果并返回
        n1r = self.cnn(face1)
        n2r = self.cnn(face2)
        return n1r, n2r

这个网络还需要有特殊的损失函数。这个损失函数将会使相同的人脸距离相近,不同的人脸距离更远。我们采用勾股定理计算距离,这样的距离也叫欧氏距离。

因此,对于一个在n维空间上的两个点(x1, x2, x3, ..., xn), (y1, y2, y3, ..., yn),就有:

d = \sqrt{(x_1-y_1)^2+(x_2-y_2)^2+...+(x_n-y_n)^2}

因此,如果人脸相同,损失函数将会输出的损失值是:

\left | 0-d \right |

这样的话,如果距离过远,损失值就会偏大 ,从而使输出更接近0

如果人脸不同,输出的损失值是:

max(m-d, 0)

这样的话,只有当距离比设定阈值远时,损失才为0.

另外,损失最好使用乘方而不是绝对值,这样的话就可以增加远离时的梯度。

我们定义其损失函数如下:

# 损失函数定义
class FaceLoss(paddle.nn.Layer):

    def __init__(self, margin=(512 ** 0.5)):
        super(FaceLoss, self).__init__()
        self.margin = margin

    def forward(self, output1, output2, label):
        # 计算欧式距离(勾股定理)
        euclidean_distance = paddle.norm(output1 - output2, axis=1)
        # 损失值
        # 在数据集中,1为相同,0为不同。但是输出要求相似的图片距离更近
        loss_contrastive = label * paddle.square(euclidean_distance) + \
                           (1 - label) * paddle.square(
            paddle.maximum(self.margin - euclidean_distance, paddle.to_tensor(0.0)))
        # 损失函数应对同一批次取一个损失值
        return paddle.mean(loss_contrastive)

在paddle中,可以使用paddle.norm计算距离。axis=1表示只对第1维度计算距离,因为第0维度是数据批次。

在数据集中,我们定义1为相同,0为不同。根据我们之前的分析,很容易算出损失值的公式。

接下来就可以把这两个整合在一个py文件中,起名face_layers.py:

import paddle


class FaceNet(paddle.nn.Layer):

    def __init__(self):
        super().__init__()
        # 共享权重的cnn网络
        self.cnn = paddle.nn.Sequential(
            paddle.nn.Conv2D(3, 16, 3, padding=1),
            paddle.nn.ReLU(),
            paddle.nn.MaxPool2D(2, 2),
            paddle.nn.Conv2D(16, 32, 3, padding=1),
            paddle.nn.ReLU(),
            paddle.nn.MaxPool2D(2, 2),
            paddle.nn.Conv2D(32, 64, 3, padding=1),
            paddle.nn.ReLU(),
            paddle.nn.MaxPool2D(2, 2),
            paddle.nn.Conv2D(64, 128, 3, padding=1),
            paddle.nn.ReLU(),
            paddle.nn.MaxPool2D(2, 2),
            paddle.nn.Flatten(),
            paddle.nn.Linear(4608, 5)
        )

    def forward(self, face1, face2):
        # 前向传播:使用cnn网络分别输出两个结果并返回
        n1r = self.cnn(face1)
        n2r = self.cnn(face2)
        return n1r, n2r


# 损失函数定义
class FaceLoss(paddle.nn.Layer):

    def __init__(self, margin=(512 ** 0.5)):
        super(FaceLoss, self).__init__()
        self.margin = margin

    def forward(self, output1, output2, label):
        # 计算欧式距离(勾股定理)
        euclidean_distance = paddle.norm(output1 - output2, axis=1)
        # 损失值
        # 在数据集中,1为相同,0为不同。但是输出要求相似的图片距离更近
        loss_contrastive = label * paddle.square(euclidean_distance) + \
                           (1 - label) * paddle.square(
            paddle.maximum(self.margin - euclidean_distance, paddle.to_tensor(0.0)))
        # 损失函数应对同一批次取一个损失值
        return paddle.mean(loss_contrastive)

训练

接下来我们需要编写训练脚本face.py:

import paddle
from face_dataset import FaceData
from face_layers import FaceNet, FaceLoss
import pickle

# 加载数据集
train_dataset = pickle.load(open('./database/train.data', 'rb'))
test_dataset = pickle.load(open('./database/test.data', 'rb'))

# 输出数据集信息
print(f'加载数据完毕,训练集数据个数:{len(train_dataset)};测试集数据个数:{len(test_dataset)}')

count = 0
for context1, context2, label in train_dataset:
    if label == 1:
        count += 1

print(f'训练集相同人脸个数{count}')

count = 0
for context1, context2, label in test_dataset:
    if label == 1:
        count += 1

print(f'测试集相同人脸个数{count}')

# 指定设备
paddle.device.set_device('gpu')

# 创建模型
model = paddle.Model(FaceNet())

# 打印模型信息
print(model.summary(((1, 3, 96, 96), (1, 3, 96, 96))))

# 模型训练的配置准备,准备损失函数,优化器和评价指标
model.prepare(paddle.optimizer.Adam(parameters=model.parameters(), learning_rate=0.00001),
              FaceLoss())

# 模型训练
model.fit(train_dataset, epochs=50, batch_size=64, verbose=1)
# 模型评估
model.evaluate(test_dataset, batch_size=64, verbose=1)

# 保存模型
model.save('./output/face-compare')

这里需要注意,我们需要使用FaceLoss作为损失函数

训练完毕后,训练数据将被存储在本地的output文件夹下,使用时加载即可

接下来我们可以编写face_use.py使用这个模型:

import paddle
from face_dataset import FaceData
from face_layers import FaceNet
from PIL import Image
import numpy as np

# 加载模型
model = paddle.Model(FaceNet())
model.load('./output/face-compare')

print('加载模型完毕')

# 打开图片
pil_img1 = Image.open(f'facecap\\003\\30.jpg').convert('RGB').resize((96, 96))
pil_img2 = Image.open(f'facecap\\003\\27.jpg').convert('RGB').resize((96, 96))

# 转np数组
np_img1 = np.array(pil_img1, dtype=np.float32).transpose((2, 0, 1)) / 255.0
np_img2 = np.array(pil_img2, dtype=np.float32).transpose((2, 0, 1)) / 255.0

# 预测
pred = model.predict_batch((np.array([np_img1], dtype=np.float32), np.array([np_img2], dtype=np.float32)))

# 计算距离
euclidean_distance = paddle.norm(paddle.to_tensor([pred[0]]) - paddle.to_tensor([pred[1]]))
print(euclidean_distance.numpy())

这里只以两张相同人的人脸的图片做测试,最后输出:

加载模型完毕
[0.1978856]

改用两张不同人的人脸做测试,最后输出:

加载模型完毕
[1.1059165]

可以看到,这个模型的效果还不错。但是经过我的多次测试,发现这个模型还有一定的提升空间。这需要更大的数据集、更深的模型和更多的训练次数

总结

我们使用孪生网络技术,成功实现了人脸对比模型,并有一定的准确性,可以应用于人脸比对等场景。但是,由于数据集、模型和训练次数有限,还难以实现更准确的人脸对比

  • 5
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值