利用卷积神经网络实现人脸识别(python+TensorFlow)

利用CNN卷积神经网络实现人脸识别(python+TensorFlow)

使用的人脸数据是耶鲁大学的一个人脸数据集Yale_64x64.mat,数据集已经上传Yale 64x64.mat

程序:

'''''''''
使用Yale_64x64.mat人脸数据,利用CNN卷积神经网络实现人脸识别
Yale_64x64.mat数据构成:
    分为fea(人脸数据165x4096)  gnd(标签165x1)
    图像大小为64x64(64x64=4096)
    一共15个人的人脸,每个人11条人脸数据
'''
import tensorflow as tf
import numpy as np
import scipy.io as sio

f = open('Yale_64x64.mat','rb')
mdict = sio.loadmat(f)
# fea:数据    gnd:标签
train_data = mdict['fea']
train_label = mdict['gnd']

# 将数据分为训练数据与测试数据
train_data = np.random.permutation(train_data)
train_label = np.random.permutation(train_label)
test_data = train_data[0:64]
test_label = train_label[0:64]
np.random.seed(100)
test_data = np.random.permutation(test_data)
np.random.seed(100)
test_label = np.random.permutation(test_label)
train_data = train_data.reshape(train_data.shape[0], 64, 64, 1).astype(np.float32)/255

# 将标签数据改为one_hot编码格式的数据
train_labels_new = np.zeros((165, 15))
for i in range(0, 165):
    j = int(train_label[i, 0])-1
    train_labels_new[i, j] = 1

test_data_input = test_data.reshape(test_data.shape[0], 64, 64, 1).astype(np.float32)/255
test_labels_input = np.zeros((64,15))
for i in range(0,64):
    j = int(test_label[i, 0])-1
    test_labels_input[i, j] = 1

# CNN
data_input = tf.placeholder(tf.float32,[None, 64, 64, 1])
label_input = tf.placeholder(tf.float32,[None, 15])

layer1 = tf.layers.conv2d(inputs=data_input, filters=32, kernel_size=2, strides=1, padding='SAME', activation=tf.nn.relu)
layer1_pool = tf.layers.max_pooling2d(layer1, pool_size=2, strides=2)
layer2 = tf.layers.conv2d(inputs=layer1_pool, filters=64, kernel_size=2, strides=1, padding='SAME', activation=tf.nn.relu)
layer2_pool = tf.layers.max_pooling2d(layer2, pool_size=2, strides=2)
layer3 = tf.reshape(layer2_pool, [-1,16*16*64])
layer3_relu = tf.layers.dense(layer3,1024, tf.nn.relu)
output = tf.layers.dense(layer3_relu, 15)

# 计算损失函数  最小化损失函数  计算测试精确度
loss = tf.losses.softmax_cross_entropy(onehot_labels=label_input, logits=output)
train = tf.train.GradientDescentOptimizer(0.01).minimize(loss)
accuracy = tf.metrics.accuracy(labels=tf.argmax(label_input,axis=1), predictions=tf.argmax(output, axis=1))[1]

# 初始化 运行计算图
init = tf.group(tf.global_variables_initializer(),tf.local_variables_initializer())
with tf.Session() as sess:
    sess.run(init)
    tf.summary.FileWriter('D:/face_log', sess.graph)
    for i in range(0,1500):
        train_data_input = np.array(train_data)
        train_label_input = np.array(train_labels_new)
        sess.run([train, loss], feed_dict={data_input: train_data_input, label_input: train_label_input})
        acc = sess.run(accuracy, feed_dict={data_input: test_data_input, label_input: test_labels_input})
        print('step:%d  accuracy:%.2f%%' % (i+1, acc*100))

运行结果:

  • 4
    点赞
  • 102
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
人脸识别是计算机视觉领域的研究热点之一,卷积神经网络(CNN)是其中应用最广泛的算法之一。在这里我提供一个使用CPU+TensorFlow2.X实现人脸识别的简单示例,数据集采用Yale_64x64.mat。 首先,我们需要导入必要的库和数据集。在这个示例中,我们将使用NumPy和TensorFlow作为我们的主要库。 ```python import numpy as np import tensorflow as tf import scipy.io as sio # 导入数据集 data = sio.loadmat('Yale_64x64.mat') X = data['fea'] Y = data['gnd'] ``` 接下来,我们需要对数据进行预处理。在这个示例中,我们将把数据集分成训练集和测试集,并进行归一化处理。 ```python # 数据预处理 n_samples = X.shape[0] n_train = int(n_samples * 0.8) # 训练集 X_train = X[:n_train] Y_train = Y[:n_train] # 测试集 X_test = X[n_train:] Y_test = Y[n_train:] # 归一化 X_train = X_train / 255. X_test = X_test / 255. ``` 接下来,我们需要定义一个CNN模型。在这个示例中,我们将使用一个简单的3层卷积神经网络。 ```python # 定义CNN模型 model = tf.keras.Sequential([ tf.keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(64, 64, 1)), tf.keras.layers.MaxPooling2D((2, 2)), tf.keras.layers.Conv2D(64, (3, 3), activation='relu'), tf.keras.layers.MaxPooling2D((2, 2)), tf.keras.layers.Conv2D(64, (3, 3), activation='relu'), tf.keras.layers.Flatten(), tf.keras.layers.Dense(64, activation='relu'), tf.keras.layers.Dense(15, activation='softmax') ]) ``` 接下来,我们需要编译模型并开始训练。在这个示例中,我们将使用交叉熵作为损失函数,Adam优化器作为优化器,并设置5个epochs进行训练。 ```python # 编译模型 model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) # 训练模型 model.fit(X_train.reshape(-1, 64, 64, 1), Y_train, epochs=5) ``` 最后,我们可以使用测试集评估模型的性能。 ```python # 评估模型 test_loss, test_acc = model.evaluate(X_test.reshape(-1, 64, 64, 1), Y_test) print('Test accuracy:', test_acc) ``` 通过运行以上代码,我们可以得到一个使用CPU+TensorFlow2.X实现人脸识别的简单示例。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值