Bousmalis, K., Trigeorgis, G., Silberman, N., Krishnan, D., & Erhan, D. (2016). Domain separation networks. NIPS 2016.
网络结构:
输入图像为
x
x
x。
对于target domain 有两个特征提取网络:
E
c
(
x
)
,
E
p
s
(
x
s
)
E_c(x),E_p^s(x^s)
Ec(x),Eps(xs)。
对于target domain 有两个特征提取网络:
E
c
(
x
)
,
E
p
t
(
x
t
)
E_c(x),E_p^t(x^t)
Ec(x),Ept(xt)。
文章做的是分类任务,除了分类器之外,framework仍然包含对图像进行重构的decoder。输入 x x x,经过encoder和decoder得到重构图像 x ^ \hat{x} x^。
x ^ = D ( E c ( x ) + E p ( x ) ) \hat{x}= D(E_c(x)+E_p(x) ) x^=D(Ec(x)+Ep(x))
对于target domain x ^ = D ( E c ( x t ) + E p t ( x t ) ) \hat{x}= D(E_c( x^t)+ E_p^t{(x^t)} ) x^=D(Ec(xt)+Ept(xt))
对于source domain x ^ = D ( E c ( x s ) + E p s ( x s ) ) \hat{x}= D(E_c( x^s)+ E_p^s{(x^s)} ) x^=D(Ec(xs)+Eps(xs))
两个域有一个公共的encoder,还有单独的一个encoder。
Decoder网络两个域共用,通过private和shared representation两个特征进行重构。
损失函数
整体:
重构误差:
分类误差:
similarity loss :
目的是使两个域的shared representation分布尽可能接近。
文章提到两个:
1). 使用 Gradient Reversal Layer (GRL)
2). Maximum Mean Discrepancy (MMD)
difference loss
文章说目的是使得shared 和private representation 两个分布正交:
矩阵
H
H
H 的每一行是hidden representation。
这个公式我还没研究明白,或许哪天再瞧瞧。
总之对这篇文章我还是很雾,哪天再仔细看看。