介绍一篇CVPR2018的论文
Maximum Classifier Discrepancy for Unsupervised Domain Adaptation
文章的背景是迁移学习,下面我们先介绍一下迁移学习,然后介绍域适应
一、迁移学习
目前,图片分类、语义分割等任务的正确率已经非常高了。这得益于人工标注的数据集和深度神经网络的快速发展。但是每次我们要训练一个新的任务时,都需要建立一个新的数据集。这个代价非常的昂贵。
比如我们利用现有的人脸数据集,能很好的识别“谁的脸”,但是现在有一个新的任务是“识别这张脸的年纪”。我们就需要重新标注数据集。又或者存在一个很多年前标注的电脑的数据集,由于时代发展电脑的外观发生的巨大的变化。所以旧的数据集并不能帮助我们很好的识别现在的电脑。所以我们需要重新建立一个数据集。
由上面的例子可以看出 新任务与旧数据集之间的矛盾。我们需要另一种手段去减少标注数据的代价。这时迁移学习应运而生了。
迁移学习是指:
给定源域和目标域的数据集和任务,利用源域的数据集和任务,辅助目标域的训练。
在上面的例子中,源域的数据集就是旧的电脑的数据集,有标注。源域的任务是识别电脑。目标域的任务也是识别电脑,数据集只有新电脑的图片,没有标注。这种特殊的迁移学习任务又称“域适应”。
换句话说,我的目标任务是没有标注好的数据集的。我要利用现有的,但是不怎么适用的数据集来解决我的目标任务。这就是这篇文章的主题
域适应存在的问题
- 传统的域适应仅区分源域的特征和目标域的特征,并不考虑每个类的边界
- 完全