![e2c11f36c9f4dc2d61f5709de5b99a3c.png](https://i-blog.csdnimg.cn/blog_migrate/eb98ffbf4e91da2fa29996925f9662bb.jpeg)
本系列简单梳理一下《Deep Visual Domain Adaptation: A Survey》这篇综述文章的内容,囊括了现在用深度网络做领域自适应DA(Domain Adaptation)的各个方面的一些文章。
原文链接:Deep Visual Domain Adaptation: A Survey
Heterogeneous Domain Adaptation
异构数据领域自适应:如果源域和目标域数据空间是一致的,也就是
基于深度网络
- Cross modal distillation for supervision transfer
这篇文章的想法说起来其实很简单,我们希望的是得到深度图片(Depth Image)mid-level的语义表示,但是深度图片的数据量又不多,而且还没label,怎么做呢?我们可以用ImageNet已经训练好的网络,对与深度图片相应的数据(paired data),提取得到mid-level语义信息,如下图所示。然后用我要训练的网络提取的表示信息(灰色网络),与预训练好的网络(黑色网络)提取的表示信息做一个均方误差作为训练损失,反向传播修改灰色网络的权值。
![f4c09db4dea4f5fbb83c118b0c8feb16.png](https://i-blog.csdnimg.cn/blog_migrate/83ae3db52d587aa5f77f29381c817926.jpeg)
- Cross-Modal Adaptation for RGB-D Detection
这篇文章想用depth images来增强网络物体检测(detection)能力,方法也和上面那篇一样简单粗暴。首先作者观察到CNN提取到特征前几层与分类无关,后几层与域无关。首先分别用一个卷积网络来提取depth images和RGB images的前几层特征,因为这些层与domain相关,与分类目标无关。然后在后几层融合,变成一个网络,来提取与分类有关的特征。
![5664d8ee99223d109399e92a216e022c.png](https://i-blog.csdnimg.cn/blog_migrate/2f26e9240dc862477f76d464a0abe5f7.jpeg)
- Weakly-shared deep transfer networks for heterogeneous-domain knowledge propagation.
这篇在之前基于深度网络差异的论文集中提到过,处理的是异构的域自适应,如文本和图片,特征空间是不相同的。这篇文章使用一个正则项约束:
也就是把图片和文本先输入到一个各自独有的网络中,但是这两个独有的网络并不是独立的,需要满足如上式的约束。然后再输入到一个共享的网络中,希望提取出公共的特征。
![eb53047b7e311f049d728e9c58200663.png](https://i-blog.csdnimg.cn/blog_migrate/7b8a813d36f2143d2b6df46055bd96d4.jpeg)
- Transfer neural trees for heterogeneous domain adaptation
提出Transfer Neural Trees (TNT)方法,处理的是半监督异构领域自适应的