Domain Separation Networks (NIPS 2016)

Bousmalis, K., Trigeorgis, G., Silberman, N., Krishnan, D., & Erhan, D. (2016). Domain separation networks. NIPS 2016.

网络结构:

在这里插入图片描述
输入图像为 x x x
对于target domain 有两个特征提取网络: E c ( x ) , E p s ( x s ) E_c(x),E_p^s(x^s) Ec(x),Eps(xs)
对于target domain 有两个特征提取网络: E c ( x ) , E p t ( x t ) E_c(x),E_p^t(x^t) Ec(x),Ept(xt)

文章做的是分类任务,除了分类器之外,framework仍然包含对图像进行重构的decoder。输入 x x x,经过encoder和decoder得到重构图像 x ^ \hat{x} x^

x ^ = D ( E c ( x ) + E p ( x ) ) \hat{x}= D(E_c(x)+E_p(x) ) x^=D(Ec(x)+Ep(x))

对于target domain x ^ = D ( E c ( x t ) + E p t ( x t ) ) \hat{x}= D(E_c( x^t)+ E_p^t{(x^t)} ) x^=D(Ec(xt)+Ept(xt))

对于source domain x ^ = D ( E c ( x s ) + E p s ( x s ) ) \hat{x}= D(E_c( x^s)+ E_p^s{(x^s)} ) x^=D(Ec(xs)+Eps(xs))

两个域有一个公共的encoder,还有单独的一个encoder。
Decoder网络两个域共用,通过private和shared representation两个特征进行重构。

损失函数

整体:

在这里插入图片描述

重构误差:

在这里插入图片描述

分类误差:

在这里插入图片描述

similarity loss :

目的是使两个域的shared representation分布尽可能接近。

文章提到两个:

1). 使用 Gradient Reversal Layer (GRL)
在这里插入图片描述

2). Maximum Mean Discrepancy (MMD)
在这里插入图片描述

difference loss

文章说目的是使得shared 和private representation 两个分布正交:

在这里插入图片描述
矩阵 H H H 的每一行是hidden representation。

这个公式我还没研究明白,或许哪天再瞧瞧。

总之对这篇文章我还是很雾,哪天再仔细看看。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值