- IASP (International Affective Picture System)
- IASPa
- Abstract
- GAPED (Geneva Affective Picture Database)
- MART
- devArt
- Tweet
- FlickrCC (Flickr creative common)
- Flickr
- Emotion6(Emotion ROI)
- FI (Flicker and Instagram)
- IESN
- FlickrLDL
- TwitterLDL
二、多模态情感分析数据集
- 《Multi-Modal Sarcasm Detection in Twitter with Hierarchical Fusion Model》--【多模态讽刺识别】2019年。论文中建立的数据集,包含文本和图像两个模态,具体来说是三个模态,文本部分包含两个方面:一个是描述(文本模态),另一个是图像的属性,即图像包含那些东西,用文字描述(也可以归类为属性模态)。数据集较好之处是给出了原始数据,即有原始的文本,原始的图像和属性描述,可以任意操作成实验表征。数据集和代码链接是https://github.com/headacheboy/data-of-multimodal-sarcasm-detection
-
《Towards Multimodal Sarcasm Detection(An Obviously Perfect Paper)》--【多模态讽刺】2019年。论文给的是图像和文本双模态讽刺视频。其中每个标签对应的图像包含多个,对应的文本是一组对话,具体如下图所示:数据集链接是:https://github.com/soujanyaporia/MUStARD
-
《Multimodal Language Analysis in the Wild_ CMU-MOSEI Dataset and Interpretable Dynamic Fusion Graph》--【多模态情感和情绪分析】2018年。论文中描述的CMU-MOSEI数据集规模最大的三模态数据集,且具有情感和情绪两个标签。但是这里要注意,数据集是多标签特性,即每一个样本对应的情绪可能不止一种,对应情绪的强弱也不同,在[-3~3]之间。数据集的原始数据给出了,但是过于原始,即给出的是文本,音频和视频文件,图像还得自己去以固定频率捕获并且和文本语音对其还是比较麻烦的。大多实验都使用处理好的实验数据。数据集的链接是:http://immortal.multicomp.cs.cmu.edu/raw_datasets/processed_data/
-
《UR-FUNNY: A Multimodal Language Dataset for Understanding Humor》--【多模态幽默分析】2019年。论文中描述的是UR-FUNNY数据集,包含文本语音图像三个模态来分析幽默情感。具体目前没用到没有细看,日后再补充。数据集和代码链接是:https://github.com/ROC-HCI/UR-FUNNY
好像部分同学下载失败,可以用下面这个链接:
链接:https://pan.baidu.com/s/1iOwSmlaQeTo3NH95LnPl0A
提取码:5z4o
-
《MOSI: Multimodal Corpus of Sentiment Intensity and Subjectivity Analysis in Online Opinion Videos》--【多模态情绪分析】。论文中描述的是CMU-MOSI数据集,跟上述的CMU-MOSEI数据集名字很像,但是发布较早,规模小且只有情绪的标签。数据集跟MOSEI一样,有处理好的实验数据,但是也有部分原始数据,video部分依然是视频不是已经捕获好的图像。数据集的链接是:http://immortal.multicomp.cs.cmu.edu/raw_datasets/processed_data/
-
《CH-SIMS: A Chinese Multimodal Sentiment Analysis Dataset with Fine-grained Annotations of Modality》--【中文多模态情绪】2020年。论文中给出常规的文本、图片和语音的数据进行多模态情绪分类,其中标签更加细致,不仅有最终的标签,还有各个模态的标签。数据集链接是: https://github.com/thuiar/MMSA
-
《Iemocap: interactive emotional dyadic motion capture database》--【多模态视频情感分析】2008。根据摘要可以看出IEMOCAP数据库包含大约12小时的视听数据,包括视频、语音、面部运动捕捉、文本转录。IEMOcap数据库有愤怒、快乐、悲伤、中立标签。
数据集参考这个CSDN博客https://blog.csdn.net/qq_33472146/article/details/90665196 ,需要填写一个申请表,具体如下:
数据集获取方式:
需要填一个申请表,如果没结果就给他们发封邮件。数据很大,大概18G左右,可以用Chrome下载管理器下载。
如果有任何问题可以联系这个人Anil Ramakrishna (akramakr@usc.edu)
给他发邮件,告诉他直接把数据集公开在网盘里多好,还要填申请表。。。