【ICML2022】刻画与克服多模态深度神经网络中的学习贪心特性

本文介绍了一种新算法,用于在训练多模态深度神经网络时平衡不同模态的条件学习速度,旨在解决贪婪学习导致的模型依赖单一模态的问题。通过计算条件利用率,作者发现模态间的利用率存在不平衡,进而提出了基于条件学习速度的代理方法。实验证明,该算法能有效提高模型在ColoredMNIST、ModelNet40和NVIDIA DynamicHandGesture数据集上的泛化性能。
摘要由CSDN通过智能技术生成

279f463eed517d9422cc869bc47445df.png

来源:专知
本文为论文,建议阅读5分钟我们提出了一种算法来平衡训练过程中模态之间的条件学习速度,并证明它确实解决了贪婪学习的问题该算法提高了模型在三个数据集上的泛化能力。

a8d2452cedd53ef2920b997a6177ad9c.png

我们假设,由于多模态深度神经网络学习的贪婪性质,这些模型往往只依赖于一种模态,而不拟合其他模态。根据我们的经验观察,这种行为是反直觉的,并且损害了模型的泛化。为了估计模型对每种模态的依赖性,我们计算当模型除了另一种模态外还可以访问它时,对精度的增益。我们把这个增益称为条件利用率。在实验中,我们始终观察到不同模态之间的条件利用率不平衡,跨多个任务和架构。由于在训练过程中不能有效地计算条件利用率,我们引入了一个基于模型从每个模态学习的速度的代理,我们称之为条件学习速度。我们提出了一种算法来平衡训练过程中模态之间的条件学习速度,并证明它确实解决了贪婪学习的问题该算法提高了模型在三个数据集上的泛化能力:Colored MNIST、ModelNet40和NVIDIA Dynamic Hand Gesture。

https://www.zhuanzhi.ai/paper/a175b09bb7bfe5bc36d68b6fdf98fe86

dcb487e25f2a2e0c908871e436067771.png

b6c2e7cfbf9f7b31922ed3704dc597df.png

a04a3077e96315488678ee0f01aaad5b.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值