论文标题:Towards Out-of-Distribution Generalization: A Survey
论文链接:https://www.aminer.cn/pub/612eef555244ab9dcbe12821?f=cs
经典的机器学习方法是建立在独立同分布假设的基础上的。然而在真实场景中,独立同分布假设很难得到满足,导致经典机器学习算法在分布偏移下的性能急剧下降,这也表明研究分布外泛化问题的重要性。分布外泛化(Out-of-Distribution Generalization)问题针对测试分布未知且与训练不同的具有挑战性的问题设定。本文首次系统、全面地探讨了分布外泛化问题,从问题的定义、方法、评价到未来发展方向。首先,本文给出了分布外泛化问题的形式化定义;其次,根据现有方法在整个学习流程中的位置,将其分为无监督表示学习、有监督模型学习与优化方法三部分,并详细讨论了每一类中的典型方法;然后,我们展示了不同类别方法间的理论联系,并介绍了常用的数据集和评价指标;最后,对全文文献进行了总结,并对分布外泛化问题提出了未来的研究方向。
AMiner,让AI帮你理解科学!