多模态分析数据集(Multimodal Dataset)整理

这篇博客整理了多模态数据集的资源,涵盖情感分析、问答和检索三大方向,包括VQA、MSCOCO、IEMOCAP等知名数据集,并提供了数据集的下载链接和相关论文。适合多模态研究初学者入门,同时也为研究人员提供了丰富的数据集参考。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这里整理一下平时所用的多模态数据集以备之用,主要分为

  1. 多模态情感分析数据集
  2. 多模态问答数据集
  3. 多模态检索(匹配)数据集

后面会不断地去添加,也希望能够帮到其他人,欢迎大家补充。

【0】.多模态以及其他方向如何入门或者查找数据集?

看到评论区有很多小伙伴对多模态方面不知道怎么入门,不知道使用哪些数据集,最简单的方法是找一篇最近最新的相关方向的多模态论文,通过related work可以了解这个方向的发展,通过experiment了解这个方向比较受欢迎的一些数据集。论文或者数据集查询可以百度,可以google, 也可以去各大论文会议网站里面找,通过ctrl+F搜索关键词就可以了。

https://www.aclweb.org/anthology/ 这个网站有很多会议论文,包括ACL,EMNLP等等

https://papers.nips.cc/ 这个网站是影响力特别大的Nips会议论文

上述链接均可以有年份查询,通过年份可以找到对应年份的所有会议论文,非常方便哦。


【1】.多模态情感分析数据集

一、双模态(一般是文本、图像和语音的两两组合)

1.《Multi-Modal Sarcasm Detection in Twitter with Hierarchical Fusion Model》--【多模态讽刺识别】2019年。论文中建立的数据集,包含文本和图像两个模态,具体来说是三个模态,文本部分包含两个方面:一个是描述(文本模态),另一个是图像的属性,即图像包含那些东西,用文字描述(也可以归类为属性模态)。数据集较好之处是给出了原始数据,即有原始的文本,原始的图像和属性描述,可以任意操作成实验表征。数据集和代码链接是https://github.com/headacheboy/data-of-multimodal-sarcasm-detection

2.《Towards Multimodal Sarcasm Detection(An Obviously Perfect Paper)》--【多模态讽刺】2019年。论文给的是图像和文本双模态讽刺视频。其中每个标签对应的图像包含多个,对应的文本是一组对话,具体如下图所示:

数据集链接是:https://github.com/soujanyaporia/MUStARD

二、三模态(一般是文本、图像加语音)

1.《Multimodal Language Analysis in the Wild_ CMU-MOSEI Dataset and Interpretable Dynamic Fusion Graph》--【多模态情感和情绪分析】2018年。论文中描述的CMU-MOSEI数据集规模最大的三模态数据集,且具有情感和情绪两个标签。但是这里要注意,数据集是多标签特性,即每一个样本对应的情绪可能不止一种,对应情绪的强弱也不同,在[-3~3]之间。数据集的原始数据给出了,但是过于原始,即给出的是文本,音频和视频文件,图像还得自己去以固定频率捕获并且和文本语音对其还是比较麻烦的。大多实验都使用处理好的实验数据。数据集的链接是:http://immortal.multicomp.cs.cmu.edu/raw_datasets/processed_data/

2.《UR-FUNNY: A Multimodal Language Dataset for Understanding Humor》--【多模态幽默分析】2019年。论文中描述的是UR-FUNNY数据集,包含文本语音图像三个模态来分析幽默情感。具体目前没用到没有细看,日后再补充。数据集和代码链接是:https://github.com/ROC-HCI/UR-FUNNY

3.《MOSI: Multimodal Corpus of Sentiment Intensity and Subjectivity Analysis in Online Opinion Videos》--【多模态情绪分析】。论文中描述的是CMU-MOSI数据集,跟上述的CMU-MOSEI数据集名字很像,但是发布较早,规模小且只有情绪的标签。数据集跟MOSEI一样,有处理好的实验数据,但是也有部分原始数据,video部分依然是视频不是已经捕获好的图像。数据集的链接是:http://immortal.multicomp.cs.cmu.edu/raw_datasets/processed_data/

4.《CH-SIMS: A Chinese Multimodal Sentiment Analysis Dataset with Fine-grained Annotations of Modality》--【中文多模态情绪】2020年。论文中给出常规的文本、图片和语音的数据进行多模态情绪分类,其中标签更加细致,不仅有最终的标签,还有各个模态的标签。

具体如图所示。论文以及数据集具体我还没看,日后需要我将修改更仔细。数据集链接是: https://github.com/thuiar/MMSA

5.《Iemocap: interactive emotional dyadic motion capture database》--【多模态视频情感分析】2008。论文简单搜了一下好像要钱,凎!根据摘要可以看出IEMOCAP数据库包含大约12小时的视听数据,包括视频、语音、面部运动捕捉、文本转录。IEMOcap数据库有愤怒、快乐、悲伤、中立标签。

数据集参考这个CSDN博客https://blog.csdn.net/qq_33472146/article/details/90665196 ,需要填写一个申请表,具体如下:

数据集获取方式:

需要填一个申请表,如果没结果就给他们发封邮件。数据很大,大概18G左右,可以用Chrome下载管理器下载。

如果有任何问题可以联系这个人Anil Ramakrishna (akramakr@usc.edu)

给他发邮件,告诉他直接把数据集公开在网盘里多好,还要填申请表。。。


【2】.多模态问答数据集

一、双模态(一般是文本+图片)

1.《 Making the v in vqa matter: Elevating the role of image understanding in visual question answering》--【多模态问答】2017年。论文中是VQA数据集,包括原始的图片、问答文本等各种属性。我们简单的可以通过word2vec或者Glove或者bert提取文本的embedding,通过Resnet来提取图片的feature,图片问题和回答三个方面通过对应的id来联系

数据集下载链接在https://visualqa.org/download.html


【3】.多模态检索(匹配)数据集

一、双模态(一般是文本+图像)

1.《Microsoft COCO Captions Data Collection and Evaluation Server》--【多模态图片字幕】2015年。论文给出的是经典的MS COCO数据集,现在还在广泛使用,我看21年的论文依然在用这个数据集,很出名。数据集较大,大部分设计到纯CV方面的数据集,标注一共分为5类:目标点检测,关键点检测,实例分割,全景分割以及图片标注,前面四个都是CV领域的,感兴趣的同学可以玩一下,简单的多模态方向只需要最后一个,当然如果你要通过目标检测辅助多模态分析等等方向前面几个标注也是有用的。简单的,我们这里需要的是图片和字幕两个模态,这里注意每个图片对应5条字幕,可以用来做多模态匹配之类的任务。数据集包括2014年发布的以及2017年发布的,每个都有超过几十万张图片的标注,图片给出的是原始图片,标注是基于JSON文件给出的,也是原始的文本数据,我们只要写出程序将字幕抽取出来就可以了,字幕和图片之间有id对应,非常方便。

数据集链接是:Common Objects in Context

2.《Nus-wide: A real-world web image database from national university of singapore.》--【多模态图片字幕匹配检索】2009年,数据集包含269648张图片,每张图片包含81个真实的标签以及100个文本注释。美中不足的是大概看了一下,给的直接是图片的特征,也就没有原始图片,如果论文的方法在Embedding之上可以拿来试一试。

数据集链接是:https://lms.comp.nus.edu.sg/wp-content/uploads/2019/research/nuswide/NUS-WIDE.html

具体使用起来还稍微有一些复杂,因为给的是feature,所以我就没用了。数据集的使用可以参考这个博客,写的很详细:NUS_WIDE数据库制作_LeeWei-CSDN博客_nuswide数据集

3.《Flickr30k Entities: Collecting Region-to-Phrase Correspondences for Richer Image-to-Sentence Models--【多模态图片字幕匹配检索】Flickr30k数据集,给定了31783张图像以及158915个文本注释,可以看出和MS COCO一样一张图片对应5个注释。只不过图片有点小,只有3万张。具体使用步骤可以参考这个博客:https://blog.csdn.net/gaoyueace/article/details/80564642

数据集链接是http://shannon.cs.illinois.edu/DenotationGraph/进行填表,获取下载地址http://shannon.cs.illinois.edu/DenotationGraph/data/index.html,但是好像不是很稳定。

也可以直接用我这百度云的:https://pan.baidu.com/s/1Z4tyzFfbMSkQkjcuTwG5UQ,提取码是:bk9l,分享是永久有效。下载文件蛮简单的,一个图片,一个字幕,通过图片id进行对应。

对应于Flickr30k 3万张图片,有一个小版本Flickr8k,只有8千张图片

数据集链接是:https://pan.baidu.com/s/1PWuBlzLK2bFqkRbaBTqAuw

提取码:txnd

4.《The IAPR Benchmark: A New Evaluation Resource for Visual Information Systems》--【多模态图片字幕匹配检索】IAPR TC-12数据集,包括20,000张从世界各地拍摄的静态自然图像,包括各种不同的静态自然图像截面。这包括不同运动和动作的照片,人物、动物、城市、风景和当代生活的许多其他方面的照片。使用三种语言(英语,德语和西班牙语)来进行注释。

论文链接是:http://thomas.deselaers.de/publications/papers/grubinger_lrec06.pdf

数据集链接是:https://www.imageclef.org/photodata

5.《Conceptual captions: A cleaned, hypernymed, image alt-text dataset for automatic image captioning》--【多模态检索】2018年。较大的多模态数据集,包含超过300万张图片以及相应的文本描述,可以用于多模态预训练(不过还是感觉好少哇,跟单模态几亿张图片比起来,多模态的标注工作太耗时耗力了)。如图所示:

数据集地址:https://github.com/google-research-datasets/conceptual-captions

论文地址:https://www.aclweb.org/anthology/P18-1238.pdf

6.《WenLan: Bridging Vision and Language by Large-Scale Multi-Modal Pre-Training》--【多模态检索 2021】论文发布了超级大型的中文文本图片匹配数据集 RUC-CAS-WenLan 用于预训练,数据集规模在3000万对。同时论文也发布了大型中文多模态检索预训练模型。

模型代码以及数据集的下载链接如下:https://github.com/BAAI-WuDao/BriVl

论文地址:https://arxiv.org/abs/2103.0656

### 关于 MMSA 的复现方法与代码实现 MMSA 是一种用于多模态情感分析的框架,其核心在于处理多种模态的数据(如文本、音频和视频),并通过特定算法提取这些数据的情感特征。以下是有关 MMSA 复现的方法及其代码实现的关键点: #### 数据准备 在进行训练之前,需确保已准备好所需的数据集。常见的多模态情感分析数据集包括 MOSI 和 MOSEI 等[^1]。可以通过以下命令安装必要的库并加载数据: ```bash pip install MMSA ``` #### 训练流程 完成环境配置后,可以按照如下方式启动训练过程。具体命令结构如下所示: ```bash $ python -m MMSA -d mosi/dosei/avec -m mmim -s 1111 -s 1112 ``` 上述命令中 `-d` 参数指定使用的数据集名称,而 `-m` 则定义所采用的模型架构;两个 `-s` 参数分别表示随机种子值以保证实验结果的一致性和可重复性[^3]。 #### 模型选择 对于不同的应用场景可以选择不同类型的模型来进行训练测试。例如,在某些情况下可能更适合选用 `lmf` 或者其他更复杂的融合策略作为基础构建模块之一[^4]: ```bash $ python -m MMSA -d mosi -m lmf -s 1111 -s 1112 ``` #### 时间依赖建模 考虑到人类情绪表达往往存在时间上的延续特性,因此引入 LSTM 来捕捉这种长时间跨度内的变化规律显得尤为重要。此外还利用 TCN (Temporal Convolutional Networks) 对各时刻下的信息加以进一步提炼加工,最终形成固定大小向量供下游任务使用[^5]: ```python import torch.nn as nn class TimeAwareModel(nn.Module): def __init__(self, input_size, hidden_size, output_dim): super(TimeAwareModel, self).__init__() # Define LSTM layer for temporal modeling self.lstm = nn.LSTM(input_size=input_size, hidden_size=hidden_size, batch_first=True) # Temporal convolution network layers... def forward(self, x): lstm_out, _ = self.lstm(x) ... ``` --- ###
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值