在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。
在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。
这是 PaperDaily 的第 60 篇文章本期推荐的论文笔记来自 PaperWeekly 社区用户 @jindongwang。本文是伍伦贡大学(University of Wollongong)发表于 CVPR 2018 的工作,作者团队将样本权重应用于对抗 Partial Transfer 中。
如果你对本文工作感兴趣,点击底部的阅读原文即可查看原论文。
关于作者:王晋东,中国科学院计算技术研究所博士生,研究方向为迁移学习和机器学习。
■ 论文 | Importance Weighted Adversarial Nets for Partial Domain Adaptation
■ 链接 | https://www.paperweekly.site/papers/1805
■ 作者 | Jing Zhang / Zewei Ding / Wanqing Li / Philip Ogunbona
背景
我们目前接触过的绝大部分迁移学习问题情景都是:源域和目标域的特征空间与类别空间一致,只是数据的分布不一致,如何进行迁移。也就是说,源域和目标域要是几类,都是几类。
但是这种情况显然具有很大的限制性:在真实应用中,我们往往不知道目标域的类别,更无法获知它是否和源域的类别完全一样。这就极大地限制了它的应用。
迁移学习的目标就是利用大量有标注的源域数据来对目标域数据进行建模。如果我们假设已有的源域数据很丰富,它本身就包含了目标域的类别,那么问题会不会看起来更具一般性?
形式化来讲,我们用 Ys 和 Yt 分别表示源域和目标域的类别空间,那么部分迁移学习就是 Y ⊃ Yt。这种情况比通常意义下的迁移学习更有挑战性。
论文动机
作者的 motivation 很直观:如果在源域类别比目标域多的情况下无法直接进行迁移,那我们就先选择出源域中与目标域那部分类别最接近的样本,给它们赋予高权重,然后再进行迁移。