IEMOCAP数据集描述
交互式情绪二元运动捕捉(iemocap)数据库是一个动作、多模式和多峰值的数据库,最近在南加州大学的Sail实验室收集。它包含大约12小时的视听数据,包括视频、语音、面部运动捕捉、文本转录。它由两个阶段组成,参与者在其中执行即兴表演或脚本场景,特别是选择以引出情感表达。IEMOcap数据库由多个注释员注释成类别标签,如愤怒、快乐、悲伤、中立,以及维度标签,如配价、激活和支配。详细的动作捕捉信息,激发真实情感的互动设置,以及数据库的大小,使该语料库成为社区现有数据库的重要补充,有助于研究和建模多模态和表达性的人类交流。
IEMOCAP数据集版本
我们目前正在发布IEMOcap数据。它包含了10个男演员和女演员在情感二元互动过程中的数据。数据库包含即兴和脚本化会话。
我们总共发布了大约12小时的视听数据。对于每一个即兴和脚本化的录音,我们提供了详细的视听和文本信息,包括两个对话者的音频和视频、每个录音中一个对话者的面部、头部和手的运动捕捉数据、对话的文本转载及其词级、电话级和音节le。光圈对齐。此外,对于录音的每一个发言,我们都从多个注释器中为分类和维度标签提供注释。
先前的有限IEMOcap版本,仅包含来自两个参与者的数据,也可根据要求提供。
数据集获取方式:
需要填一个申请表,如果没结果就给他们发封邮件。数据很大,大概18G左右,你可以用Chrome下载管理器下载。
如果有任何问题可以联系这个人Anil Ramakrishna (akramakr@usc.edu)
给他发邮件,告诉他直接把数据集公开在网盘里多好,还要填申请表。。。