​ICML 2023 | 可证明的动态多模态融合框架:一个简单而有用的理论

27750e8823eb950d8e6492e31b0b9ecf.gif

©PaperWeekly 原创 · 作者 | 张庆阳

单位 | 天津大学智能与计算学部

研究方向 | 多模态机器学习

803be5ecca9f2ecc54bc08ce8e40ed7c.png

方法动机

多模态融合是多模态学习领域的基础问题。近年来,多模态动态融合在复杂场景的感知任务上取得了瞩目的效果。如自动驾驶领域中装配多种传感器的无人车、智能医疗领域中的各种临床检测数据。但现实世界中往往存在大量的低质量多模态数据:噪声、缺失模态,不平衡的多模态数据。

传统的融合方法往往忽略了由于环境因素、潜在传感器故障而导致的质量不可靠问题。近年来,相关研究者认为引入动态融合机制是获得可靠多模态预测的一种可行的途径。例如在自动驾驶中,一些学者提出根据不同的光照条件动态调整 RGB 和近红外图像的融合方式以提高系统的鲁棒性。

然而,这些动态融合方法发挥作用的机理一直是悬而未决的开放性问题:为什么动态融合优于广泛应用的静态融合?符合什么条件的动态性是多模态融合的保障?

针对上述问题,被 ICML 2023 录用的工作给出了相关的理论分析和证明(Provable Dynamic Fusion),明确给出了多模态融合问题中实现有效动态性的前提条件,指明了不确定性估计和多模态融合任务之间的关联。基于上述理论分析所设计的“基于质量的动态多模态融合方法”(Quality-aware Multimodal Fusion)在多个数据集上取得了优异性能。

4cf8898b2b1c560ddbebf8a3ce2392b6.png

论文链接:

http://arxiv.org/abs/2306.02050

代码链接:

https://github.com/QingyangZhang/QMF

  • 5
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值