CVPR 2018 Best Paper | 任务学: 揭开任务迁移学习的秘密
Introduction
直觉告诉我们视觉任务之间存在着关联,但是这些关联是怎样的呢?这篇论文提出了一个完全通过计算的方法构建视觉任务的空间结构:
一个有向图,节点为任务,每一条的权重作为任务间的关联度。
当我们得知任务的边界的时候,知道哪些任务之间是有着比较好的关联度,那么利用迁移学习能够降低我们对于目标任务的标记数据的需求,从而降低我们对于大数据集的依赖,减少计算,同时使训练表现较好。而当前的深度学习忽视了这些任务之间的大量有用的关联,导致标记数据的大量需求。
本文的一些约定的Definition或者使用的名词
Structure(结构):通过计算发现的特定的某些任务可以提供可用信息另一个任务,包括提供的能力程度。(可以理解为有向图的一条边,以及其权重)
Binary Integer Programming: 0-1整数规划
通过计算出任务间的紧密关系矩阵(也就是基于一个任务是否充分容易地将其提取出来的表示用于其他任务的学习)这样的迁移是完全采样的,并且用了0-1整数规划来提取一个有效的全局训练策略。
由于这个方法是通过完全计算以及基于表示进行的,可以避免把自己的假设带入任务空间,确保提取出来的图是合理的,并且发现这种做法能够用远比单独训练一个任务少得多的数据来训练出目标任务。(例如我们容易认为深度迁移到曲面法线应该更容易,然而实际上反之更好)
Method
1.问题定义:
我们希望在有限的监督能力(由于资金/计算能力/时间等限制)下,最优化在一系列任务集合中的表现。
T :目标任务(我们希望训练出来/解决的任务)
S:源任务(我们已经训练好的任务,或者我们能够已有的充分的数据训练出来的任务)
V =T U S ,即所有任务的并集
T - T
S:不能被训练出来的但是想解决的(这就是我们希望做好的地方
T
S:能够被训练出来的而且是我们想解决的(这是极好的
S-T