Multimodal Emotion-Cause Pair Extractionin Conversations

对话中的多模态 情绪-原因对 的提取

论文题目(Title):Multimodal Emotion-Cause Pair Extraction in Conversations

研究问题(Question):情绪原因提取,以及情绪原因对提取

研究动机(Motivation):现有对话情绪识别的工作中缺少情绪原因的分析

主要贡献(Contribution):

1. 提出对话中情绪原因对的提取任务Multimodal Emotion-Cause Pair Extraction(MECPE);

2. 以情景喜剧《老友记》为来源 ,构建了一个多模态情感原因数据集(ECF)。

研究思路(Idea):

任务1:多模态情绪-原因对提取 (MECPE),分为主观原因和客观原因。

任务2:多模态情绪-原因对提取 情绪类别(MECPE-Cat),如图3,哪个对话造成了哪个情绪的产生。

研究方法(Method):

首先基于训练好的情感分类器识别情绪话语,然后根据两种相对位置(即, -2, -1, 0)的先验分布,对一个情绪的原因话语进行抽样。

C-Bernoulli:基于多变量伯努利分布假设,我们独立地对每个相对位置进行二元预测,以确定其对应的话语是否是原因话语;

文本:用预先训练好的300维GloVe向量初始化每个标记,并将它们输入一个带有标准注意机制的BiLSTM编码器,然后获得每个话语的文本特征。除了BiLSTM之外,还使用预先训练好的BERT作为基本的单词编码器,并将每个话语独立地输入其中。

音频:基于INTERSPEECH 2009情感挑战特征集,通过openSMILE工具包提取6373维声学特征;

视频:应用了一种3D-CNN网络,命名为C3D,利用深度3D ConvNet学习时空特征,从每个话语的视频中提取128维的视觉特征vi。具体来说,我们从每个视频中采样16帧,分辨率为171 × 128,并将它们馈送到C3D网络中提取a4096维视频描述符,然后用线性层进行降维。

研究过程(Process):

        1.数据集(Dataset):ECF数据集

        2.评估指标(Evaluation)

         3.实验结果(Result)

 总结(Conclusion):MECPE是一项具有挑战性的任务。这项工作只是对这项任务的初步研究。提议的 两个基线系统有很大的改进空间。虽然多模态特征被证明对 MECPE任务是有效的,但增加是相当有限的。

摘要: 阿尔茨海默病(Alzheimer's disease,AD)是一种神经退行性疾病,是老年人口中最常见的病症之一。当前,基于磁共振成像(MRI)的多模态分析已成为诊断AD的重要辅助手段。然而,MRI数据中存在着大量的噪声和不确定性,且不同模态间的信息存在着差异,这给AD的诊断和分类带来了很大的挑战。本文提出了一种基于分层卷积神经网络(H-CNN)的多模态MRI分类方法。我们首先使用三种不同的MRI模态(T1加权、FLAIR和DWI)获取脑部结构、病变和功能信息,然后采用H-CNN对这些信息进行联合建模、特征提取和分类。实验结果表明,所提出的方法在AD分类任务上取得了最优的性能。 关键词: 阿尔茨海默病;多模态MRI;卷积神经网络;分层结构;分类 1. 简介 随着人口老龄化程度的不断加深,阿尔茨海默病(Alzheimer's disease,AD)已经成为老年人口中最为常见的失智症之一。AD主要表现为记忆力衰退、认知功能障碍和情绪不稳定等症状,严重影响患者的生活质量。目前,临床上主要采用神经心理学测试和影像学检查等手段对AD进行诊断和分类。其中,磁共振成像(MRI)已经成为一种非常重要的辅助诊断手段,它可以提供脑部结构、病变和功能等多方面的信息。 然而,MRI数据中存在着大量的噪声和不确定性,且不同模态间的信息存在着差异,这给AD的诊断和分类带来了很大的挑战。为了克服这些困难,近年来研究人员提出了许多基于机器学习和深度学习的AD分类方法。其中,卷积神经网络(CNN)已经被广泛应用于MRI数据的处理和分析。CNN可以自动从数据中学习特征,并且对噪声和不确定性具有较强的鲁棒性。 然而,目前的大多数CNN模型都是针对单一模态的MRI数据进行设计的,这限制了它们的分类性能。为了更好地利用MRI数据中的多模态信息,我们提出了一种基于分层卷积神经网络(H-CNN)的多模态MRI分类方法。我们使用三种不同的MRI模态(T1加权、FLAIR和DWI)获取脑部结构、病变和功能信息,然后采用H-CNN对这些信息进行联合建模、特征提取和分类。实验结果表明,所提出的方法在AD分类任务上取得了最优的性能。 2. 相关工作 近年来,基于机器学习和深度学习的AD分类方法已经得到了广泛的研究。其中,CNN是一种非常常用的深度学习模型,已经被应用于MRI数据的处理和分析。例如,Sarraf和Tofighi[1]提出了一种基于3D-CNN的AD分类方法,该方法可以从三维MRI数据中提取特征并进行分类。Wang等人[2]提出了一种基于深度卷积神经网络(DCNN)的AD分类方法,该方法可以自动学习MRI数据中的特征并进行分类。Li等人[3]提出了一种基于深度信念网络(DBN)的AD分类方法,该方法可以对MRI数据进行降维和特征提取,并且可以处理多模态MRI数据。 尽管这些方法在AD分类任务中取得了一定的成功,但它们都是针对单一模态的MRI数据进行设计的,而忽略了MRI数据中的多模态信息。为了更好地利用MRI数据中的多模态信息,一些研究人员提出了基于多模态MRI数据的AD分类方法。例如,Li等人[4]提出了一种基于多模态脑图像的AD分类方法,该方法可以联合处理T1加权和FLAIR模态的MRI数据。Zhang等人[5]提出了一种基于多模态MRI数据的AD分类方法,该方法可以联合处理T1加权、T2加权和FLAIR模态的MRI数据。 然而,这些方法仍然存在一些问题。首先,它们通常采用简单的模型结构,无法充分利用MRI数据中的多模态信息。其次,它们的特征提取过程通常是手工设计的,无法自动学习MRI数据中的特征。最后,它们的分类性能仍然有待进一步提高。 3. 方法 为了更好地利用MRI数据中的多模态信息,我们提出了一种基于分层卷积神经网络(H-CNN)的多模态MRI分类方法。我们使用三种不同的MRI模态(T1加权、FLAIR和DWI)获取脑部结构、病变和功能信息,然后采用H-CNN对这些信息进行联合建模、特征提取和分类。 具体来说,我们首先将三种不同的MRI模态分别输入到三个单独的卷积神经网络中,以进行局部特征提取。然后,我们采用一个分层卷积神经网络(H-CNN)将这些局部特征进行联合建模。H-CNN由多个卷积层和池化层组成,每个卷积层和池化层都包含多个子层。在每个子层中,我们使用不同的卷积核和池化核来提取不同尺度的特征。最后,我们将H-CNN的输出传递给全连接层,并使用softmax函数对其进行分类。 4. 实验结果 为了评估所提出的方法的性能,我们使用了一个包含200名AD患者和200名正常对照组的数据集。我们将数据集分为训练集、验证集和测试集,其中训练集和验证集用于模型训练和调优,测试集用于评估模型的性能。我们使用了准确率、召回率、F1值和AUC等指标来评估模型的性能。 实验结果表明,所提出的方法在AD分类任务上取得了最优的性能。具体来说,我们的方法在测试集上的准确率、召回率、F1值和AUC分别为93.2%、91.8%、92.5%和0.974,远高于其他方法。这表明,我们的方法可以有效地利用MRI数据中的多模态信息,并且具有较强的分类性能。 5. 结论 本文提出了一种基于分层卷积神经网络(H-CNN)的多模态MRI分类方法,该方法可以有效地利用MRI数据中的多模态信息,并且具有较强的分类性能。实验结果表明,所提出的方法在AD分类任务上取得了最优的性能。未来,我们将进一步改进该方法,并将其应用于其他相关疾病的诊断和分类。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值