(五十一):Improving Multimodal Fusion with Hierarchical Mutual Information Maximization for Multimodal S

本文提出一种名为MMIM的多模态信息融合框架,用于多模态情感分析,通过层次最大化单模态输入与融合结果间的互信息。此框架解决了现有方法在多模态融合中信息流控制不足的问题,通过多模态融合保留任务相关的信息,提高下游任务性能。实验证明,MMIM在多模态情感分析任务上表现出优越或可比的性能。
摘要由CSDN通过智能技术生成

  • 出处:Accepted as a long paper at EMNLP 2021
  • 代码: https://github.com/ declare-lab/Multimodal-Infomax.
  • 题目:改进的多模态情感分析的层次互信息最大化多模态融合
  • 主要内容:第一次将MI和MSA关联。提出了一个MMIM框架,该框架层次最大化了单模态输入对(inter-modality)中的互信息(MI)以及多模态融合结果与单模态输入之间的互信息(MI)

Abstract

在多模态情感分析(MSA)中,模型的性能在很大程度上取决于综合嵌入的质量。这些嵌入是由称为多模态融合的上游过程生成的,该过程旨在提取并结合输入的单模态原始数据,以产生更丰富的多模态表示。
以往的工作要么反向传播任务损失,要么运用特征空间的几何特性,以产生良好的融合结果,忽略了从输入到融合结果的关键任务相关信息的保存
在本文中,我们提出了一个名为MultiModal InfoMax (MMIM)的框架,该框架:层次最大化了单模态输入对(inter-modality)中的互信息(MI)以及多模态融合结果与单模态输入之间的互信息(MI),以便通过多模态融合来维护与任务相关的信息

  1. 框架与主要任务(
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Laura_Wangzx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值