基于OpencvCV的情绪检测

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达6635e1acd8985a7c8d7fe8d5ee1dad78.png

9c3a5451957b8a946b496372047e88f6.gif

情绪检测或表情分类在深度学习领域中有着广泛的研究。使用相机和一些简单的代码我们就可以对情绪进行实时分类,这也是迈向高级人机交互的一步。

前言

本期我们将首先介绍如何使用Keras 创建卷积神经网络模型,再使用摄像头获取图片进行情绪检测。

为了更好的阅读体验,我们最好具备一下知识:

• Python

• OpenCV的

• 卷积神经网络(CNN)

• numpy

(注意:我们使用的Tensorflow是1.13.1版本、keras是 版本2.3.1)

模型的制作

首先,我们将创建模型代码并解释其中的含义。代码的创建总共分为以下5个部分。

任务1:

导入该项目所需的必需模块。

import keras
from keras.preprocessing.image import ImageDataGenerator
from keras.models import Sequential
from keras.layers import Dense,Dropout,Activation,Flatten,BatchNormalization
from keras.layers import Conv2D,MaxPooling2D
import os

现在让我们定义一些变量,这些变量将节省手动输入的时间。

num_classes=5
img_rows,img_cols=48,48
batch_size=32

以上变量的说明如下:

• num_classses = 5:训练模型时要处理的类即情感的种类数。

• img_rows=48,img_cols = 48:馈送到神经网络中的图像阵列大小。

• batch_size = 32:更新模型之前处理的样本数量。epochs 是完整通过训练数据集的次数。batch_size必须大于等于1并且小于或等于训练数据集中的样本数。

任务2:

现在让我们开始加载模型,这里使用的数据集是fer2013,该数据集是由kaggle托管的开源数据集。数据集共包含7类,分别是愤怒、厌恶、恐惧、快乐、悲伤、惊奇、无表情,训练集共有28,709个示例。该数据集已从网站上删除,但我们在以下链接中可以找到相关代码和数据集。https://github.com/karansjc1/emotion-detection

数据集的存储库中

我们将数据储存在特定文件夹中。例如,“愤怒”文件夹包含带有愤怒面孔等的图片。在这里,我们使用5类,包括“愤怒”,“快乐”,“悲伤”,“惊奇”和“无表情”。使用24256张图像作为训练数据,3006张图像作为检测数据。

现在让我们将数据加载到一些变量中。

train_data_dir='fer2013/train'
validation_data_dir='fer2013/validation'

以上两行导入了检测和训练数据。该模型是在训练数据集上进行训练的;在检测数据集上检测该模型性能,检测数据集是原始数据集的一部分,从原始数据集上分离开来的。

任务3:

现在,我们对这些数据集进行图像增强。图像数据增强可以扩展训练数据集大小,改善图像质量。Keras深度学习神经网络库中的ImageDataGenerator类通过图像增强来拟合模型。

train_datagen = ImageDataGenerator(
    rescale=1./255,
    rotation_range=30,
    shear_range=0.3,
    zoom_range=0.3,
    width_shift_range=0.4,
    height_shift_range=0.4,
    horizontal_flip=True,
    fill_mode='nearest')
validation_datagen = ImageDataGenerator(rescale=1./255)

train_datagen变量以下方法人为地扩展数据集:

• rotation_range:随机旋转,在这里我们使用30度。

• shear_range:剪切强度(逆时针方向的剪切角,以度为单位)。在这里我们使用0.3作为剪切范围。

• zoom_range:随机缩放的范围,这里我们使用0.3作为缩放范围。

• width_shift_range:在图像的整个宽度上移动一个值。

• height_shift_range:这会在整个图像高度上移动一个值。

• horizontal_flip:水平翻转图像。

• fill_mode:通过上述使用的方法更改图像的方向后填充像素,使用“最近”作为填充模式,即用附近的像素填充图像中丢失的像素。

在这里,我只是重新保存验证数据,而没有执行任何其他扩充操作,因为我想使用与训练模型中数据不同的原始数据来检查模型。

train_generator = train_datagen.flow_from_directory(
 train_data_dir,
 color_mode='grayscale',
 target_size=(img_rows,img_cols),
 batch_size=batch_size,
 class_mode='categorical',
 shuffle=True)
validation_generator = validation_datagen.flow_from_directory(
 validation_data_dir,
 color_mode='grayscale',
 target_size=(img_rows,img_cols),
 batch_size=batch_size,
 class_mode='categorical',
 shuffle=True)

上面代码的输出将是:

Found 24256 images belonging to 5 classes.
Found 3006 images belonging to 5 classes.

在上面的代码中,我正在使用flow_from_directory()方法从目录中加载我们的数据集,该目录已扩充并存储在train_generator和validation_generator变量中。flow_from_directory()采用目录的路径并生成一批扩充数据。因此,在这里,我们为该方法提供了一些选项,以自动更改尺寸并将其划分为类,以便更轻松地输入模型。

给出的选项是:

• directory:数据集的目录。

• color_mode:在这里,我将图像转换为灰度,因为我对图像的颜色不感兴趣,而仅对表达式感兴趣。

• target_size:将图像转换为统一大小。

• batch_size:制作大量数据以进行训练。

• class_mode:在这里,我将“类别”用作类模式,因为我将图像分为5类。

• shuffle:随机播放数据集以进行更好的训练。

任务4:

数据集的修改已完成,现在是该模型的大脑即CNN网络。

因此,首先,我将定义将要使用的模型的类型。在这里,我使用的是Sequential模型,该模型定义网络中的所有层将依次相继并将其存储在变量模型中。

model = Sequential()

该网络由7个块组成:(后面我们将逐层解释)

#Block-1
model.add(Conv2D(32,(3,3),padding='same',kernel_initializer='he_normal',
                 input_shape=(img_rows,img_cols,1)))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Conv2D(32,(3,3),padding='same',kernel_initializer='he_normal',
                 input_shape=(img_rows,img_cols,1)))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Dropout(0.2))
#Block-2
model.add(Conv2D(64,(3,3),padding='same',kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Conv2D(64,(3,3),padding='same',kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Dropout(0.2))
#Block-3
model.add(Conv2D(128,(3,3),padding='same',kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Conv2D(128,(3,3),padding='same',kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Dropout(0.2))
#Block-4
model.add(Conv2D(256,(3,3),padding='same',kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Conv2D(256,(3,3),padding='same',kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Dropout(0.2))
#Block-5
model.add(Flatten())
model.add(Dense(64,kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Dropout(0.5))
#Block-6
model.add(Dense(64,kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Dropout(0.5))
#Block-7
model.add(Dense(num_classes,kernel_initializer='he_normal'))
model.add(Activation('softmax'))

运行以上代码,如果使用的是旧版本的tensorflow,则会收到一些警告。

在这里,我使用了存在于keras.layers中的7种类型的层。

这些层是:

•Conv2D(
filters, kernel_size, strides=(1, 1), padding=’valid’, data_format=None,
dilation_rate=(1, 1), activation=None, use_bias=True,
kernel_initializer=’glorot_uniform’, bias_initializer=’zeros’,
kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None,
kernel_constraint=None, bias_constraint=None, **kwargs)

• Activation(activation_type)

• BatchNormalization()

• MaxPooling2D(pool_size, strides,padding, data_format, **kwargs)

• Dropout(dropout_value)

• Flatten()

• Dense(
units,
activation=None,
use_bias=True,
kernel_initializer=”glorot_uniform”,
bias_initializer=”zeros”,
kernel_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
kernel_constraint=None,
bias_constraint=None,
**kwargs)

Block-1层的出现顺序如下:

• Conv2D层-此层为网络创建卷积层。我们创建的该层包含32个大小为(3,3)滤波器,其中使用padding ='same'填充图像并使用内核初始化程序he_normal。添加了2个卷积层,每个层都有一个激活层和批处理归一化层。

• 激活层-使用elu激活。

• BatchNormalization(批处理归一化)-归一化每一层的激活,即将平均激活值保持在接近0并将激活标准偏差保持在接近1。

• MaxPooling2D层-通过沿pool_size定义的沿特征轴的每个尺寸的窗口上的最大值,对输入表示进行下采样。在此, pool_size大小为(2,2)。

• Dropout:是一种在训练过程中忽略随机选择的神经元的技术。在这里,我将dropout设为0.5,这意味着它将忽略一半的神经元。

Block-2层的出现顺序如下:

• 与block-1相同的层,但是卷积层具有64个滤波器。

Block-3层的出现顺序如下:

• 与block-1相同的层,但是卷积层具有128个滤波器。

Block-4层的出现顺序如下:

• 与block-1相同的层,但是卷积层具有256个滤波器。

Block-5层的出现顺序如下:

• 展平层-将前一层的输出展平,即转换为矢量形式。

• 密集层-该层中每个神经元都与其他每个神经元相连。在这里,我使用带有内核的程序初始化64个单元或64个神经元-he_normal。

• 这些层之后使用elu激活,批处理归一化,最后以dropout为50%选择忽略。

块6层的出现顺序如下:

• 与模块5相同的层,但没有展平层,因为该模块的输入已展平。

块7层的出现顺序如下:

• 密集层-网络的最后一个块中,我使用num_classes创建一个密集层,该层具有he_normal初始值设定项,其unit =类数。

• 激活层-在这里,我使用softmax,该层多用于分类。

现在检查模型的整体结构:

print(model.summary())

输出将是:

Model: "sequential_1"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
conv2d_1 (Conv2D)            (None, 48, 48, 32)        320       
_________________________________________________________________
activation_1 (Activation)    (None, 48, 48, 32)        0         
_________________________________________________________________
batch_normalization_1 (Batch (None, 48, 48, 32)        128       
_________________________________________________________________
conv2d_2 (Conv2D)            (None, 48, 48, 32)        9248      
_________________________________________________________________
activation_2 (Activation)    (None, 48, 48, 32)        0         
_________________________________________________________________
batch_normalization_2 (Batch (None, 48, 48, 32)        128       
_________________________________________________________________
max_pooling2d_1 (MaxPooling2 (None, 24, 24, 32)        0         
_________________________________________________________________
dropout_1 (Dropout)          (None, 24, 24, 32)        0         
_________________________________________________________________
conv2d_3 (Conv2D)            (None, 24, 24, 64)        18496     
_________________________________________________________________
activation_3 (Activation)    (None, 24, 24, 64)        0         
_________________________________________________________________
batch_normalization_3 (Batch (None, 24, 24, 64)        256       
_________________________________________________________________
conv2d_4 (Conv2D)            (None, 24, 24, 64)        36928     
_________________________________________________________________
activation_4 (Activation)    (None, 24, 24, 64)        0         
_________________________________________________________________
batch_normalization_4 (Batch (None, 24, 24, 64)        256       
_________________________________________________________________
max_pooling2d_2 (MaxPooling2 (None, 12, 12, 64)        0         
_________________________________________________________________
dropout_2 (Dropout)          (None, 12, 12, 64)        0         
_________________________________________________________________
conv2d_5 (Conv2D)            (None, 12, 12, 128)       73856     
_________________________________________________________________
activation_5 (Activation)    (None, 12, 12, 128)       0         
_________________________________________________________________
batch_normalization_5 (Batch (None, 12, 12, 128)       512       
_________________________________________________________________
conv2d_6 (Conv2D)            (None, 12, 12, 128)       147584    
_________________________________________________________________
activation_6 (Activation)    (None, 12, 12, 128)       0         
_________________________________________________________________
batch_normalization_6 (Batch (None, 12, 12, 128)       512       
_________________________________________________________________
max_pooling2d_3 (MaxPooling2 (None, 6, 6, 128)         0         
_________________________________________________________________
dropout_3 (Dropout)          (None, 6, 6, 128)         0         
_________________________________________________________________
conv2d_7 (Conv2D)            (None, 6, 6, 256)         295168    
_________________________________________________________________
activation_7 (Activation)    (None, 6, 6, 256)         0         
_________________________________________________________________
batch_normalization_7 (Batch (None, 6, 6, 256)         1024      
_________________________________________________________________
conv2d_8 (Conv2D)            (None, 6, 6, 256)         590080    
_________________________________________________________________
activation_8 (Activation)    (None, 6, 6, 256)         0         
_________________________________________________________________
batch_normalization_8 (Batch (None, 6, 6, 256)         1024      
_________________________________________________________________
max_pooling2d_4 (MaxPooling2 (None, 3, 3, 256)         0         
_________________________________________________________________
dropout_4 (Dropout)          (None, 3, 3, 256)         0         
_________________________________________________________________
flatten_1 (Flatten)          (None, 2304)              0         
_________________________________________________________________
dense_1 (Dense)              (None, 64)                147520    
_________________________________________________________________
activation_9 (Activation)    (None, 64)                0         
_________________________________________________________________
batch_normalization_9 (Batch (None, 64)                256       
_________________________________________________________________
dropout_5 (Dropout)          (None, 64)                0         
_________________________________________________________________
dense_2 (Dense)              (None, 64)                4160      
_________________________________________________________________
activation_10 (Activation)   (None, 64)                0         
_________________________________________________________________
batch_normalization_10 (Batc (None, 64)                256       
_________________________________________________________________
dropout_6 (Dropout)          (None, 64)                0         
_________________________________________________________________
dense_3 (Dense)              (None, 5)                 325       
_________________________________________________________________
activation_11 (Activation)   (None, 5)                 0         
=================================================================
Total params: 1,328,037
Trainable params: 1,325,861
Non-trainable params: 2,176
_________________________________________________________________
None

上面的输出显示了该网络中使用的所有层。这是一个大型网络,包含1,328,037个 参数。

任务5:

最后一步:编译和训练

现在剩下的事情就是编译和训练模型。但是首先让我们导入更多的依赖。

from keras.optimizers import RMSprop,SGD,Adam
from keras.callbacks import ModelCheckpoint, EarlyStopping, ReduceLROnPlateau

在编译之前,我将使用keras.callbacks类创建以下3个东西:

Checkpoint(函数— ModelCheckpoint())

它将监视验证损失,并使用mode ='min'属性尝试将损失降至最低。到达检查点时,它将保存训练有素的最佳大小。Verbose = 1仅用于代码创建检查点时的可视化。这里我使用以下参数:

• file-path:保存模型文件的路径,这里我保存的模型文件名为EmotionDetectionModel.h5

• monitor:要监视的数量。在这里,我正在监视验证损失。

• mode:{自动,最小,最大}之一。如果save_best_only = True,则基于监视数量的最大化或最小化来决定覆盖当前保存文件。

• save_best_only:如果save_best_only = True,则根据监视数量的最新最佳模型将不会被覆盖。

• verbose:1:更新数据,0:不变。

提前停止(功能— EarlyStopping())

通过检查以下属性,以提前结束运行。

• monitor:要监视的数量。在这里,我正在监视验证损失。

• min_delta:被监视的数量的最小变化有资格作为改进,即绝对变化小于min_delta将被视为没有任何改进。在这里我给了0。

• patience:没有改善的时期数,此后将停止训练。我在这里给了它3。

• restore_best_weights:是否从时期以受监视数量的最佳值恢复模型权重。如果为False,则使用在训练的最后一步获得的模型权重。

• verbose:1:更新数据,0:不变。

降低学习率(函数— ReduceLROnPlateau())

一旦学习停滞,模型通常会受益于将学习率降低2-10倍。回调监视数量,并且如果没有发现patience的改善,则学习率会降低,为此使用了以下属性。

• monitor:监视特定损失。在这里,我正在监视验证损失。

• factor:降低学习率的因素。new_lr = lr *因子。在这里我使用0.2作为系数。

• patience:没有改善的时期数,之后学习率将降低。我在这里使用3。

• min_delta:测量新的最佳阈值,仅关注重大变化。

• verbose:1:更新数据,0:不变。

现在是时候到最后使用编译模型model.compile()和适合训练数据集的模型model.fit_generator()

model.compile()

具有以下参数:

• loss:此值将确定要在代码中使用的损失函数的类型。在这里,我们有5个类别或类别的分类数据,因此使用了“ categorical_crossentropy”损失。

• optimizer:此值将确定要在代码中使用的优化器功能的类型。这里我使用的学习率是0.001的Adam优化器,因为它是分类数据的最佳优化器。

• metrics:metrics参数应该是一个列表,模型可以有任意数量的metrics。它是模型在训练和测试过程中要评估的metrics列表。这里我们使用了精度作为度量标准。

model.fit_generator()

使模型适合Python逐批生成的数据。

它具有以下参数:

• generator:我们之前创建的train_generator对象。

• steps_per_epochs:在一个纪元内接受训练数据的步骤。

• epoch:一次通过整个数据集。

• callbacks:包含我们之前创建的所有回调的列表。

• validation_data:我们之前创建的validation_generator对象。

• validation_steps:在一个时期内采取验证数据的步骤。

model.compile(loss='categorical_crossentropy',
 optimizer = Adam(lr=0.001),
 metrics=['accuracy'])
nb_train_samples = 24176
nb_validation_samples = 3006
epochs=25
history=model.fit_generator(
 train_generator,
 steps_per_epoch=nb_train_samples//batch_size,
 epochs=epochs,
 callbacks=callbacks,
 validation_data=validation_generator,
 validation_steps=nb_validation_samples//batch_size)

驱动程式码

现在,我们将使用在上一节中创建的模型来说明用于情感检测的代码。

首先,让我们再次导入一些运行代码所需的模块。

from keras.models import load_model
from keras.preprocessing.image import img_to_array
from keras.preprocessing import image
import cv2
import numpy as np

现在,让我们加载模型,并加载我用来检测摄像头前方人脸的分类器。使用haarcascade_frontalface_default分类器。Haar Cascade是一种机器学习对象检测算法,用于识别图像或视频中的对象,并基于Paul Viola和Michael Jones在其论文《使用简单特征的增强级联进行快速对象检测》中提出的特征概念。2001。haarcascade_frontalface_default分类器可检测图像或连续视频源中人的正面。

face_classifier=cv2.CascadeClassifier('/haarcascade_frontalface_default.xml')
classifier = load_model('/EmotionDetectionModel.h5')

现在,我将定义一个变量class_labels来存储类的名称或我们要预测的情绪类型,还定义一个变量cap来存储cv2.VideoCapture方法返回的值。在此,VideoCapture中的值0用于指示该方法使用便携式计算机的主要网络摄像头。

class_labels=['Angry','Happy','Neutral','Sad','Surprise']
cap=cv2.VideoCapture(0)

结论

因此,在这里我已经解释了使用OpenCV和Keras创建情绪检测的过程。通过以下链接可以查看完整的代码以及数据集。

https://github.com/karansjc1/emotion-detection

实验结果如下:

00ce7e3e5cc608f2aca7a7b4fef4fbc7.gif

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。

下载2:Python视觉实战项目52讲

在「小白学视觉」公众号后台回复:Python视觉实战项目即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。

下载3:OpenCV实战项目20讲

在「小白学视觉」公众号后台回复:OpenCV实战项目20讲即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。

交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

b1128bbba3c9b0b28b9e65ac5f7f0538.png

8fbf65dc9f2694ca12fbc67e1184ce5a.png

要基于OpenCV进行情绪检测识别图像,可以使用深度学习框架如TensorFlow和Keras来训练情绪分类模型,然后将模型与OpenCV集成。 以下是一些步骤: 1. 收集情绪分类数据集。可以使用公共数据集如FER2013或自己收集数据。 2. 使用深度学习框架如TensorFlow和Keras来训练情绪分类模型。可以使用卷积神经网络(CNN)或其他类型的模型。 3. 将模型保存为.h5文件。 4. 使用OpenCV加载图像并进行预处理。 5. 在OpenCV中使用已训练的模型进行情绪分类。可以使用模型.predict()方法获取图像的情绪标签。 下面是一个示例代码,演示了如何使用OpenCV和Keras进行情绪检测: ``` python import cv2 from keras.models import load_model import numpy as np # 加载模型 model = load_model('emotion_detection.h5') # 情绪标签 emotion_labels = ['Angry', 'Disgust', 'Fear', 'Happy', 'Neutral', 'Sad', 'Surprise'] # 创建摄像头对象 cap = cv2.VideoCapture(0) while True: # 读取摄像头视频流 ret, frame = cap.read() # 翻转帧以获得镜像效果 frame = cv2.flip(frame, 1) # 缩放帧以加快处理速度 frame = cv2.resize(frame, (224, 224)) # 转换颜色空间 gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # 归一化像素值 gray = gray / 255.0 # 调整形状以符合模型输入 gray = np.reshape(gray, (1, 224, 224, 1)) # 进行情绪分类 pred = model.predict(gray) # 获取情绪标签 emotion_label = emotion_labels[np.argmax(pred)] # 在帧上绘制情绪标签 cv2.putText(frame, emotion_label, (50, 50), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2) # 显示帧 cv2.imshow('emotion detection', frame) # 按下q键退出循环 if cv2.waitKey(1) & 0xFF == ord('q'): break # 关闭窗口和摄像头 cap.release() cv2.destroyAllWindows() ``` 请注意,此代码需要训练好的模型文件emotion_detection.h5。您可以使用Keras训练自己的模型,也可以在互联网上查找已经训练好的模型。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值