人工智能课程设计——人脸表情分析

人脸表情分析课程

一、选题背景

人脸表情分析是计算机视觉和人工智能领域的一个重要研究方向,它可以通过分析人脸图像或视频中的面部表情来推测人的情绪状态。这项技术在许多领域都有广泛的应用,以下是一些背景和应用领域:
情感识别:人脸表情分析可以用于识别人的情感状态,例如识别出人是否高兴、悲伤、愤怒等。这在情感计算、心理学研究、市场调研等方面有着重要的应用。
用户体验改进:在人机交互中,通过分析用户的面部表情,可以了解用户的体验和满意度。这有助于改进用户界面和交互设计,提供更好的用户体验。
人脸识别与认证:人脸表情分析可以用于增强人脸识别系统的准确性和安全性。通过分析人脸表情,可以判断人脸是否真实、是否为活体,从而提高人脸识别的可靠性。
智能监控与安防:人脸表情分析可以用于智能监控系统中,帮助检测和识别异常行为或危险情况。例如,可以检测出摄像头监控区域内的人员是否存在紧张、恐惧等异常情绪,以及是否有人遭受暴力或威胁。
营销和广告:通过分析人脸表情,可以了解消费者对产品、广告或营销活动的反应。这有助于精确定位目标消费群体,优化广告内容和呈现方式,提高广告效果。
医疗诊断和心理辅助:人脸表情分析可以应用于医学领域,帮助医生评估患者的情绪状态和心理健康。通过分析面部表情,医生可以更好地了解患者的情感变化和病情进展,为医疗诊断和治疗提供辅助。
人脸表情分析是一个具有挑战性的研究领域,涉及到图像处理、模式识别、机器学习等多个学科的知识。随着深度学习和大数据的发展,人脸表情分析的准确度和应用范围将进一步扩大。

二、课程设计思路

1、数据集
这里我们使用GENKI-4K数据集去进行我们的实验,GENKI-4K一共包含4000个图像,分为“笑”和“不笑”两种,每个图片拥有不同的尺度大小,姿势,光照变化,头部姿态,可专门用于做笑脸识别。这些图像包括广泛的背景,光照条件,地理位置,个人身份和种族等。
2、定义
训练/测试:将图片分为训练集和测试集,训练集中的图片是用来训练模型,测试集的图片是用来对模型进行测试和评价的。
3、检测笑脸的过程
首先找到图像中的脸,接下来就是分类这张照片是笑还是不笑,在第一步的操作中,可以直接使用包,比如OpenCV或者dlib中的人脸检测;在下一步的操作中,应该自己训练一个模型,模型的输入是从图像中提取的脸,输出的是测试的结果。结果的分类通常包括了特征提取和特征分类两个步骤,其中有两个特征,还有一种分类的方法SVM。
4、SVM
支持向量机。给定一组训练示例,每个示例标记为属于两个类别中的一个或另一个,SVM训练算法建立一个模型,为一个或另一个类别分配新的例子,使其成为非概率二元线性分类器。

三、课程设计目的

理解人脸表情分析的基本原理与技术:通过学习人脸表情分析的基本概念、技术原理和方法,使学生能够理解人脸表情分析的基础知识,并了解相关的数据集、算法和评估方法。
掌握人脸表情分类和情感识别的技能:通过实践项目和编程实现,能够掌握人脸表情分类和情感识别的技能,包括数据收集与预处理、模型构建与训练、结果评估等,以提高实际应用能力。
培养数据分析和机器学习的思维方式:通过人脸表情分析的课程,培养数据分析和机器学习的思维方式,包括问题分析、数据处理、模型设计与评估等,以提高分析和解决问题的能力。

四、课程设计内容与方法

内容:
1、了解常用的人脸表情数据集GENKI-4K
2、进行数据集的下载和处理
3、了解人脸表情特征提取方法
4、了解常用的人脸表情分类模型,如SVM
5、进行模型的选择和训练
6、理解常用的评估指标,如准确率、精确率、召回率等
方法:
1、CNN:通过使用layers.Conv2D类来创建卷积层,其中指定了卷积核的数量和大小。卷积层主要用于提取图像中的特征。
2、ImageDataGenerator:通过ImageDataGenerator类创建了训练数据生成器和验证数据生成器。数据生成器用于动态生成训练和验证数据的批次,可以实现数据增强和预处理。
3、dlib:使用dlib库的人脸检测器(get_frontal_face_detector函数)对图像中的人脸进行检测。
4、SVM:给定一组训练示例,每个示例标记为属于两个类别中的一个或另一个,SVM训练算法建立一个模型,为一个或另一个类别分配新的例子,使其成为非概率二元线性分类器。

五、完成代码

划分数据集

数据集下载地址:https://gitcode.net/mirrors/truongnmt/smile-detection?utm_source=csdn_github_accelerator

import os, shutil #复制文件
# 原始目录所在的路径
# 数据集未压缩
original_dataset_dir0 = r'data/train_folder/0/'
original_dataset_dir1 = r'data/train_folder/1/'
 
# 我们将在其中的目录存储较小的数据集
base_dir = 'data/train_folder/smile_small'
os.mkdir(base_dir)
 
# # 训练、验证、测试数据集的目录
train_dir = os.path.join(base_dir, 'train')
os.mkdir(train_dir)
validation_dir = os.path.join(base_dir, 'validation')
os.mkdir(validation_dir)
test_dir = os.path.join(base_dir, 'test')
os.mkdir(test_dir)
 
# 笑训练图片所在目录
train_smile_dir = os.path.join(train_dir, 'smile')
os.mkdir(train_smile_dir)
 
# 不笑训练图片所在目录
train_unsmile_dir = os.path.join(train_dir, 'unsmile')
os.mkdir(train_unsmile_dir)
 
# 笑验证图片所在目录
validation_smile_dir = os.path.join(validation_dir, 'smile')
os.mkdir(validation_smile_dir)
 
# 不笑验证数据集所在目录
validation_unsmile_dir = os.path.join(validation_dir, 'unsmile')
os.mkdir(validation_unsmile_dir)
 
# 笑测试数据集所在目录
test_smile_dir = os.path.join(test_dir, 'smile')
os.mkdir(test_smile_dir)
 
# 不笑测试数据集所在目录
test_unsmile_dir = os.path.join(test_dir, 'unsmile')
os.mkdir(test_unsmile_dir)
 
# 将前1000张笑图像复制到train_smile_dir
fnames = ['smile ({}).jpg'.format(i) for i in range(1,1000)]
for fname in fnames:
    src = os.path.join(original_dataset_dir1, fname)
    dst = os.path.join(train_smile_dir, fname)
    shutil.copyfile(src, dst)
 
# 将下500张笑图像复制到validation_smile_dir
fnames = ['smile ({}).jpg'.format(i) for i in range(1000, 1500)]
for fname in fnames:
    src = os.path.join(original_dataset_dir1, fname)
    dst = os.path.join(validation_smile_dir, fname)
    shutil.copyfile(src, dst)
    
# 将下500张笑图像复制到test_smile_dir
fnames = ['smile ({}).jpg'.format(i) for i in range(1000, 1500)]
for fname in fnames:
    src = os.path.join(original_dataset_dir1, fname)
    dst = os.path.join(test_smile_dir, fname)
    shutil.copyfile(src, dst)
    
# 将前1000张不笑图像复制到train_unsmile_dir
fnames = ['unsmile ({}).jpg'.format(i) for i in range(1,1000)]
for fname in fnames:
    src = os.path.join(original_dataset_dir0, fname)
    dst = os.path.join(train_unsmile_dir, fname)
    shutil.copyfile(src, dst)
    
# 将500张不笑图像复制到validation_unsmile_dir
fnames = ['unsmile ({}).jpg'.format(i) for i in range(700, 1200)]
for fname in fnames:
    src = os.path.join(original_dataset_dir0, fname)
    dst = os.path.join(validation_unsmile_dir, fname)
    shutil.copyfile(src, dst)
    
# 将500张不笑图像复制到test_unsmile_dir
fnames = ['unsmile ({}).jpg'.format(i) for i in range(700, 1200)]
for fname in fnames:
    src = os.path.join(original_dataset_dir0, fname)
    dst = os.path.join(test_unsmile_dir, fname)
    shutil.copyfile(src, dst)

检测数据长度

print('total training cat images:', len(os.listdir(train_smile_dir)))
print('total training dog images:', len(os.listdir(train_unsmile_dir)))
print('total validation cat images:', len(os.listdir(validation_smile_dir)))
print('total validation dog images:', len(os.listdir(validation_unsmile_dir)))
print('total test cat images:', len(os.listdir(test_smile_dir)))
print('total test dog images:', len(os.listdir(test_unsmile_dir)))

查看特征贴图的尺寸如何随每个连续层变化

from keras import layers
from keras import models

model = models.Sequential()
model.add(layers.Conv2D(32, (3, 3), activation='relu',
                        input_shape=(150, 150, 3)))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(128, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(128, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Flatten())
model.add(layers.Dense(512, activation='relu'))
model.add(layers.Dense(1, activation='sigmoid'))

数据预处理

import keras.optimizers as optimizers
 
model.compile(loss='binary_crossentropy',
              optimizer=optimizers.RMSprop(lr=1e-4),
              metrics=['acc'])
from keras.preprocessing.image import ImageDataGenerator
 
# All images will be rescaled by 1./255
train_datagen = ImageDataGenerator(rescale=1./255)
test_datagen = ImageDataGenerator(rescale=1./255)
 
train_generator = train_datagen.flow_from_directory(
        # This is the target directory
        train_dir,
        # All images will be resized to 150x150
        target_size=(150, 150),
        batch_size=20,
        # Since we use binary_crossentropy loss, we need binary labels
        class_mode='binary')
 
validation_generator = test_datagen.flow_from_directory(
        validation_dir,
        target_size=(150, 150),
        batch_size=20,
        class_mode='binary')

生成器的输出

from PIL import Image
for data_batch, labels_batch in train_generator:
    print('data batch shape:', data_batch.shape)
    print('labels batch shape:', labels_batch.shape)
    break

模型训练

history = model.fit_generator(
      train_generator,
      steps_per_epoch=100,
      epochs=30,
      validation_data=validation_generator,
      validation_steps=50)

跑完数据之后保存模型

model.save('data/smile_and_unsmile_small_2.h5')

在训练和验证数据上绘制模型的损失和准确性

import os
import matplotlib.pyplot as plt
 
acc = history.history['acc']
val_acc = history.history['val_acc']
loss = history.history['loss']
val_loss = history.history['val_loss']
 
epochs = range(len(acc))
 
plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.legend()
 
plt.figure()
 
plt.plot(epochs, loss, 'bo', label='Training loss')
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.legend()
 
plt.show()

摄像头调用识别笑脸

#检测视频或者摄像头中的人脸
import cv2
from keras.models import load_model
from keras.engine import Layer
import numpy as np
import dlib
from PIL import Image
model = load_model(r'data/smile_and_unsmile_small_2.h5')
detector = dlib.get_frontal_face_detector()
video=cv2.VideoCapture(0)
font = cv2.FONT_HERSHEY_SIMPLEX
def rec(img):
    gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
    dets=detector(gray,1)
    if dets is not None:
        for face in dets:
            left=face.left()
            top=face.top()
            right=face.right()
            bottom=face.bottom()
            cv2.rectangle(img,(left,top),(right,bottom),(0,255,0),2)
            img1=cv2.resize(img[top:bottom,left:right],dsize=(150,150))
            img1=cv2.cvtColor(img1,cv2.COLOR_BGR2RGB)
            img1 = np.array(img1)/255.
            img_tensor = img1.reshape(-1,150,150,3)
            prediction =model.predict(img_tensor)    
            if prediction[0][0]>0.5:
                result='unsmile'
            else:
                result='smile'
            cv2.putText(img, result, (left,top), font, 2, (0, 255, 0), 2, cv2.LINE_AA)
        cv2.imshow('Video', img)
while video.isOpened():
    res, img_rd = video.read()
    if not res:
        break
    rec(img_rd)
##按q退出
    if cv2.waitKey(5) & 0xFF == ord('q'):
        break
video.release()
cv2.destroyAllWindows()

六、遇到问题与解决思路

问题一:dlib库安装问题失败问题
解决思路:dlib是不能直接用conda 或者pip命令安装的,需要先安装camsk依赖包,然后去dilb官网下载与系统和python版本对应的whl文件进行安装。
问题二:tensorflow1.X和tensorflow2.X版本不兼容问题
解决思路:按照代码若需要的版本进行统一安装对应的版本。
问题三:ModuleNotFoundError: No module named 'tensorflow.compat’
解决思路:安装tensorflow1.15 keras2.2.5系列版本进行解决。
问题三:ModuleNotFoundError: No module named 'tensorflow.compat’
解决思路:安装tensorflow1.15和 keras2.2.5系列版本进行解决。

七、收获和体会

在人脸表情分析项目中,选择合适的模型对于准确度的提升非常重要。我学到了一些经典的机器学习模型,如支持向量机(SVM)、随机森林(Random Forest)以及深度学习模型,如卷积神经网络(CNN)。通过模型的训练和调优,我发现在支持向量机(SVM)和dlib库对人脸表情分析上具有更高的准确度和泛化能力。
在项目中,我学到了如何使用数据可视化工具Matplotlib对模型的结果进行分析和展示。通过可视化,我能够更好地理解模型的性能、优化方向以及潜在的问题。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值