基于面部表情的情绪识别-论文学习

论文题目:《Emotion recognition using facial expressions

实验方法

文章使用Kinect采集了6名受试者(25-60岁)的数据,每个受试者距离Kinect两米并且位置在中央,进行6次实验,分别记录7种表情(中性、喜悦、惊讶、愤怒、悲伤、恐惧、厌恶)的数据。Kinect设备可以计算出6个action unit的特征值,包括上唇抬起、下颌下垂、嘴唇伸展、眉毛下垂、唇角下垂、外眉抬起,以此作为feature,分别使用3-NN和MLP进行分类。

实验结果

1、训练集和测试集随机7:3,对6个受试者的数据单独进行训练,结果如下图(第一行表示1号受试者使用MLP的情绪识别准确率为0.94,使用3-NN的情绪识别准确率为0.97)
在这里插入图片描述
2、将6次实验中的5组用作训练集,剩下一组用作测试集,对6个受试者的数据单独进行训练,结果如下图(第一行表示1号受试者使用MLP的情绪识别准确率为0.75,使用3-NN的情绪识别准确率为0.70)
在这里插入图片描述
在这里插入图片描述

3、将数据分为12个子集,每个子集包括一名受试者的一组实验(每个受试者的6次实验其实是分成了两组,每组三次,可能每组环境不同),其中11个子集用作训练集,剩下一个子集用作测试集,对所有受试者的数据进行综合训练,结果如下图
在这里插入图片描述

结论

  • 1和2的对比说明了MLP的泛化能力更强,通过混淆矩阵发现悲伤-中性和恐惧-惊讶很容易识别错误。
  • 4号受试者的结果明显比其他受试者差,该受试者在实验时佩戴眼镜,Kinect不能正确地记录眉毛的下降和上升。
  • 此外,用户的面部毛发或肤色也会影响情绪分类的质量。
  • 受试者不是坐在设备前面,而是在一个特定的角度,并且头部旋转 -10 to +5 ,俯仰-30 to +30。MLP网络的分类准确率与之前的结果相比下降了约20%。尽管使用了3D建模,但观察到用户的位置对分类结果有很大的影响。
  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值