论文笔记 ——《A Survey on Transfer Learning》
知识点
- 迁移学习存在的领域:最显著的是数据挖掘(例如ACM KDD、IEEE ICDM和PKDD)、机器学习(例如ICML、NIPS、ECML、AAAI和IJCAI)以及机器学习和数据挖掘的应用(例如ACM SIGIR、WWW和ACL) 。
- 域差异:用不同的特征空间或边际分布概率来刻画,即两个指标特征、分布。
- 域相关:两个域的特征空间之间存在显式或隐式关系。
- 负迁移:知识迁移对目标学习产生负面影响。
- 目前关于迁移学习的大多数工作都集中在应该迁移什么以及如何迁移上,方法是隐式地假设源域和目标域是相互关联的。大多数现有的迁移学习算法都专注于改进源和目标域或任务之间不同分布的泛化,假设源域和目标域之间的特征空间是相同的。
- 归纳迁移学习 inductive transfer learning:
无论源域和目标域是否相同,目标任务都与源任务不同。 在这种情况下,需要目标域中的(大量/没有)标记数据来诱导目标域中使用的目标预测模型。 - 转导迁移学习 transductive transfer:
源任务和目标任务是相同的,而源域和目标域是不同的 (则分特征/分布两种情况不同)。在这种情况下,目标域中没有可用的标记数据,而源域中有很多可用的标记数据。 - 无监督迁移学习 unsupervised transfer learning:
目标任务不同于源任务,但与源任务相关,主要解决目标域内的无监督学习任务。