Unsupervised Image-to-Image Translation Networks---VAE+GAN+Cycle

该论文基于CoGAN,提出假设来自不同域但语义相同的图像拥有相同的潜在向量。通过共享的高层网络E1和E2捕获语义,然后解码生成特定表现形式。整体损失函数结合了VAE、GAN和Cycle损失,用于无监督的图像转换。实验效果展示了这种方法在不同条件下的图像转换能力。
摘要由CSDN通过智能技术生成

总说

这篇论文是基于CoGAN的,下面是总体结构图:
这里写图片描述
文章假设来自两个不同domain的同种语义的图片具有相同的latent vector。比如白天的上海滩与黑夜的上海滩,都是上海滩(高层语义一致,即latent vector一致),而这种语义特征再经过解码成具体的表现形式(底层网络用于语义的具体表现形式)。
因此网络设计如下:
E1 E2 的高层网络进行共享(具有相同的语义),得到相同的语义表达 z 之后,再进行解码。解码也最开始也要进行共享,一论文中的一个例子是,如果 z

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值