【ICCV2023】通过 Model-Agnostic Adapters 平衡 IID 和 OOD 困境

论文提出MAP方法,通过模型不可知适配器平衡深度学习模型在独立同分布(IID)和超出分布(OOD)场景的泛化性能,解决了IID-OOD困境。实验表明,MAP在保持良好OOD性能的同时显著提升IID性能。
摘要由CSDN通过智能技术生成

论文标题:MAP: Towards Balanced Generalization of IID and OOD through Model-Agnostic Adapters

论文链接:https://openaccess.thecvf.com/content/ICCV2023/html/Zhang_MAP_Towards_Balanced_Generalization_of_IID_and_OOD_through_Model-Agnostic_ICCV_2023_paper.html

代码:暂未开源

引用:Zhang M, Yuan J, He Y, et al. MAP: Towards Balanced Generalization of IID and OOD through Model-Agnostic Adapters[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023: 11921-11931.

fb05a1d249f8ed28ec616bfb684199f1.png

导读

深度学习在近年取得了巨大的成功,但大多数这些成功是基于独立同分布(IID)的假设构建的。这在一定程度上限制了深度学习在更具挑战性的非分布(OOD)情境下的应用。虽然已经提出了许多OOD方法来解决这个问题,并在训练分布发生重大变化的测试数据上取得了良好的性能,但有趣的是,实验证明这些方法在实现优秀的OOD性能的同时,牺牲了IID性能。本文将这一发现称为IID-OOD困境。显然,在现实应用中,训练数据和测试数据之间的分布差异通常是不确定的,这些差异可能很小,甚至接近IID情景,因此在IID和OOD之间设计具有平衡泛化能力的深度模型非常重要。

因此,在本文中,我们研究了一个有趣的问题,即如何平衡IID和OOD的泛化,并提出了一种新颖的“模型不可知适配器”(Model Agnostic adaPters,MAP)方法,该方法更可靠且有效,适用于分布变化不确定的现实世界数据。我们使用辅助适配器层将IID的归纳偏差纳入OOD方法中。为实现这一目标,我们采用了双层优化,明确地模拟和优化了OOD模型与辅助适配器层之间的耦合关系。我们还从理论上给出了一阶近似以节省计算时间。在六个数据集上的实验结果成功地证明了MAP可以显著提高IID的性能,同时实现了良好的OOD性能。

本文贡献

我们研究了一个叫做IID-OOD困境的问题,即大多数OOD(或IID)方法在牺牲IID(或OOD)精度的情况下实现了良好的OOD(或IID)性能,这超出了这些方法在不确定变化的真实数据中的能力。

我们提出了一种简单而有效的模型不可知适配器方法来同时学习IID和OOD的归纳偏差。为了实现这一点,我们使用了一个双层优化(BLO)来训练我们的地图。与计算密集型的BLO求解器不同,我们从理论上给出了一个一阶近似。

我们在6个数据集、3个模型架构和16个基线上进行了广泛的实验。我们证明了(1) MAP平衡了IID和OOD的性能。(2) MAP是与模型无关的,可以插入到任何OOD方法中。(

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值