(五十一):Improving Multimodal Fusion with Hierarchical Mutual Information Maximization for Multimodal Sentiment Analysis
- 出处:Accepted as a long paper at EMNLP 2021
- 代码: https://github.com/ declare-lab/Multimodal-Infomax.
- 题目:改进的多模态情感分析的层次互信息最大化多模态融合
- 主要内容:第一次将MI和MSA关联。提出了一个MMIM框架,该框架层次最大化了单模态输入对(inter-modality)中的互信息(MI)以及多模态融合结果与单模态输入之间的互信息(MI)。
Abstract
在多模态情感分析(MSA)中,模型的性能在很大程度上取决于综合嵌入的质量。这些嵌入是由称为多模态融合的上游过程生成的,该过程旨在提取并结合输入的单模态原始数据,以产生更丰富的多模态表示。
以往的工作要么反向传播任务损失,要么运用特征空间的几何特性,以产生良好的融合结果,忽略了从输入到融合结果的关键任务相关信息的保存。
在本文中,我们提出了一个名为MultiModal InfoMax (MMIM)的框架,该框架:层次最大化了单模态输入对(inter-modality)中的互信息(MI)以及多模态融合结果与单模态输入之间的互信息(MI),以便通过多模态融合来维护与任务相关的信息。
- 框架与主要任务(