两种迁移
相同的任务,不同的领域
相同的领域,不同的任务
迁移学习的概念
所谓迁移学习,是很多种方法的集合。
你可以说某一种方法是迁移学习,或者不是。
这里根据源领域和目标领域的数据是否标注,可以大致分为四类:
- 源领域有标注,目标领域有标注
- 源领域无标注,目标领域有标注
- 源领域有标注,目标领域无标注
- 源领域无标注,目标领域无标注
源领域有标注,目标领域有标注 fine-tuning
一般而言源领域的标注数据量会比较大,目标领域的标注数据量会比较小。
(当目标领域的数据非常少的时候,可以说是在做OneShotLearning)
这种情况是比较完美的境况,一般训练过程如下:
- 在源领域的数据上做训练,得到一个模型
- 将得到的模型作为初始化,再用目标领域数据进行一次训练
这种训练方法称为Fine-tuning,也叫微调。
看上去似乎是很简单的过程,也会出现一些问题,比如目标领域的资料真的特别少的时候,训练很可能会导致过拟合,因此也会有一些训练技巧。
-
Conservative