Domain Adaptation模型之pix2pix原理简介

一、Domain Adaptation 简述

Domain Adaptation是机器学习和计算机视觉领域的一个研究分支,主要处理如何将在一个领域(源域)上学习到的知识或模型,有效地应用到另一个不同但相关的领域(目标域)。由于源域和目标域的数据分布可能存在较大的差异,直接应用源域模型到目标域可能会导致性能下降。因此,Domain Adaptation的目标是找到一种方法,减小源域和目标域之间的差异,使得模型在目标域上也能取得较好的性能,这里介绍使用过的一种经典算法pix2pix ,出自《Image-to-Image Translation with Conditional Adversarial Networks》

二、pix2pix模型

文章链接
https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1703.1059
效果图如下:
在这里插入图片描述

2.1. 网络结构与训练过程

2.1.1 生成器网络:

生成器G网络采用了U-Net结构,作者认为图像的底层特征同样重要,相比于原始的encoder-decorder结构,增加了跳连部分,使低频信息可以更多的传递到输出;下图为原始的Unet结构;
在这里插入图片描述

2.2.2 判别器网络:

判别器D网络要输入成对的图像,类似于cGAN,如果G(x)和x是对应的,对于生成器来说希望判别为1;如果G(x)和x不是对应的,对于生成器来说希望判别器判别为0;
与之不同的是作者提出了“PatchGAN”的概念,PatchGAN是对图片中的每一个N×N的小块(patch)计算概率,然后再将这些概率求平均值作为整体的输出,这样的结果往往是通过卷积层来达到的,因为逐次叠加的卷积层最终输出的这个N x N 的矩阵,其中的每一个元素,实际上代表着原图中的一个比较大的感受野;
这样设计的优点是:PatchGAN具有更少的参数,比分类整个图像要运行更快;

2.2.3 损失函数

条件Gan的优化目标为:
在这里插入图片描述
pix2pix沿用了上述目标函数,但是判定器不观察X;
在这里插入图片描述

pix2pix 将GAN目标与更传统的损失混合,同时增加了L1-loss,因为L1可以减少模糊;
在这里插入图片描述
最终的loss函数为:
在这里插入图片描述
不同loss的比较效果:
在这里插入图片描述

三、总结

pix2pix是基于深度学习的图像到图像翻译模型,在图像风格转换、图像修复、图像增强等多个方面都有广泛的应用。通过理解它们的原理和网络结构,我们可以更好地应用这些模型来解决实际问题;

四、pytorch代码实现参考

https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix

个人水平有限,有问题随时联系~

  • 9
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值