总说
对于非监督domain mapping, 要学习的是数据集A到数据集B的一种映射。即 GAB 可以将A的一个样例映射到B中的一个相似物。人来采用dual learning,提出了训练两个模型, GAB 和 GBA 。使得 x (
这种思想有2017年出了N篇论文。主要有:DiscoGAN[1], DualGAN[1], CycleGAN[3]等等吧。。
这篇论文的主要贡献:提出一种distance的约束,使得非监督domain mapping可以one sided。我可以只训练一个G_{AB}就够了,不用训练G_{BA}
相关工作
这个总结不错。。。
Adversarial constraints
这个就是最普通的GAN损失。
LGAN(GAB,DB,p^A,p^B)=ExB∼p^B[logDB(xB)]+ExA∼p^A[log(1−DB(GAB(x