迁移学习
Transfer Learning学习笔记。
大桔骑士v
微软程序员,B站账号:大桔骑士v
展开
-
【TL学习笔记】2:多任务学习(Multi-task Learning)在图像分类中的应用
1 MTL简述1.1 单任务学习早期的机器学习方法都是单任务学习(STL)的,即认为不同任务之间没有关联性,所以都是单独训练的。这样因为每个模型单独训练,数据量只有自己的这一部分,训练出的模型也没有很好的泛化性。另外因为模型之间训练时候没有关联,即没有考虑到这些学习之间可能有共通的地方,最终得到的模型性能也不够好。1.2 多任务学习在多任务学习(MTL)中考虑了不同任务之间的关联,所以将不同任务的训练数据都放在一起,来训练多个任务的模型。1.3 MTL的构建原则找到建模任务之间的相关性同时对原创 2020-06-22 14:39:30 · 5998 阅读 · 1 评论 -
【TL学习笔记】1:领域自适应(Domain Adaptation)方法综述
1 迁移学习的直观理解人类容易在类似的任务上利用先前的经验,比如学过自行车就很容易学会摩托车,学会打羽毛球也能帮助学习打网球,学过小提琴也会对学习二胡有帮助。也就是把一个领域上学习的知识迁移到另一个领域上,目的也是让计算机有举一反三的能力(大概是实现AGI的一个重要的坎),或者是去尝试充分利用已经训练过的某个领域的知识来解决当前的任务(这样可以解决数据少的问题)。在迁移学习中要强调源域(Source Domain)、源任务(Source Task)、目标域(Target Domain)和目标任务(Tar原创 2020-06-21 00:54:09 · 45816 阅读 · 16 评论