Palette: Towards Multi-source Model Selection and Ensemble for Reuse

深度学习的成功为重用源域的预训练模型来解决训练数据可能有限的目标任务提供了令人兴奋的机会。虽然各种预训练模型已经开发出来并可用,但没有原则的方法来选择适当的模型进行重用。虽然源任务和目标任务应该足够相似,但任务相关度的计算通常需要额外的源训练数据存储和领域专家的大量工作,这在许多应用中是不切实际的。本文研究了多源模型选择与集成(Multi-source Model Selection and Ensemble, MSMSE)问题。给定一组源模型,旨在选择一个源模型子集,并开发一个对目标任务达到最佳性能的集成模型。多个模型的集成可以更充分地利用各种底层源知识,从而提高泛化能力。本文提出Palette,一个通用框架,首先从源模型池中选择可能表现良好的模型,然后通过细化构建集成。介绍了不同的模型选择策略,将多臂匪徒与自适应资源分配和贝叶斯优化技术相结合,以加速选择过程。实验结果验证了Palette和模型选择策略的有效性和高效性。

方法:

开发了Palette,一个通用框架,首先从源模型池中选择可能表现良好的模型,然后通过细化构建集成。将模型选择过程视为一个多臂赌博机问题(MAB)[5]。在MAB中,每个模型都可以看作是一个bandit的手臂,观察到的模型评估结果表明扮演一个想得到的bandit的奖励,目标是快速识别具有最高奖励的arms。本文研究了MAB的top-K arms识别问题,提出了一种自适应资源分配策略,可以有效地修剪表现不佳的模型。此外,使用GP-UCB[6]对各种预训练模型之间的相关性进行建模,以加快选择过程。在获得K个微调源模型后,Palette的细化过程进一步修剪精度较低或高度相关的模型,以构建产生最佳泛化性能的集成。 

 

注意:论文中的细节介绍很模糊,还是要看代码看它的实现过程  https://github.com/LuckyLYM/Palette. 

总结来说:论文就是提出了一个集成方法,该模型主要借鉴了多臂老虎机的方式,选择最佳的模型。这里面的细节,比如每个模型选择的loss等

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值