![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
GAN
文章平均质量分 90
啊菜来了
研究生在读-计算机视觉方向
有兴趣的可以一起探讨
展开
-
Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning
在这项工作中,我们使用一种新颖的风格特征表示学习方法来解决任意图像风格转移的挑战性问题。合适的风格表示作为图像风格化任务的关键组成部分,对于获得满意的结果至关重要。现有的基于深度神经网络的方法在内容特征的Gram矩阵等二阶统计量的指导下取得了合理的结果。然而,它们没有利用足够的风格信息,这会导致诸如局部失真和风格不一致之类的伪影。为解决这个问题,我们通过分析多种风格之间的异同,并考虑风格分布,提出直接从图像特征中学习风格表征,而不是从图像特征的二阶统计中学习。原创 2023-10-08 21:50:44 · 684 阅读 · 0 评论 -
分辨率修改
图像分辨率修改原创 2022-12-17 15:58:12 · 152 阅读 · 0 评论 -
图像风格迁移-DSTN
具有领域感知跳过连接的统一框架,以自适应地将笔划和调色板转移到由领域性指标引导的输入内容。原创 2022-12-15 09:47:28 · 2212 阅读 · 0 评论 -
风格迁移篇---U-GAT-IT:图像到图像翻译的无监督生成注意网络
图像风格迁移原创 2022-08-16 15:35:59 · 1964 阅读 · 0 评论 -
SAGAN
SAGAN原创 2022-08-11 14:02:31 · 905 阅读 · 0 评论 -
风格迁移篇---重用鉴别器进行编码:朝向无监督的图像到图像转换
图像风格迁移原创 2022-08-05 14:14:12 · 1995 阅读 · 0 评论 -
生成器知道鉴别器在无条件GANs中应该学习什么
最近的条件图像生成方法受益于密集监控,例如分割标签图,以实现高保真。然而,很少有人探索使用密集监控来无条件生成图像。在这里,我们探讨了密集监督在无条件生成中的有效性,并发现生成器特征映射可以替代成本高昂的语义标签映射。根据我们的经验证据,我们提出了一种新的generatorguided鉴别器正则化(GGDR),其中生成器特征映射监督鉴别器在无条件生成中具有丰富的语义表示。具体来说,我们采用U-Net架构作为鉴别器,该鉴别器经过训练以预测给定虚假图像作为输入的生成器特征图。在多个数据集上的大量实验表明,我们的原创 2022-08-01 16:08:46 · 1368 阅读 · 0 评论 -
风格迁移篇----艺术风格转换的内容与风格解构
风格迁移原创 2022-07-28 14:26:58 · 2010 阅读 · 0 评论 -
风格迁移篇--CCPL:Contrastive Coherence Preserving Loss for Versatile Style Transfer多功能风格转换的对比连贯保持损失
CCPL可以在风格转换过程中保持内容源的连贯性,而不会降低风格化。此外,它具有邻域调节机制,大大减少了局部失真,显著提高了视觉质量。除了在多功能风格转换方面表现出色外,它还可以轻松扩展到其他任务,例如图像到图像的翻译。性能优于AdaAttN、IE等网络,代码已开源...原创 2022-07-19 14:54:26 · 3443 阅读 · 0 评论 -
风格迁移篇---SAnet:风格注意网络下的任意风格转换
我们介绍了一种新的风格注意网络(SANet),该网络根据内容图像的语义空间分布高效灵活地集成局部风格模式。新的身份丢失函数和多级特征嵌入使我们的SANet和解码器能够在丰富样式模式的同时尽可能保留*指示等贡献内容结构。...原创 2022-07-18 21:33:52 · 4780 阅读 · 0 评论 -
风格迁移篇--- stargan代码详解以及论文解读翻译
论文地址:https://ieeexplore.ieee.org/document/8579014/论文代码(pytorch):https://github.com/yunjey/stargan论文翻译与解读:https://blog.csdn.net/m0_61985580/article/details/125766783?spm=1001.2014.3001.55011、此文仅作为学习笔记,注释可能会有一些偏差,如有注释错误欢迎留言更正。2、如有使用此文,请标注出处。...原创 2022-07-18 19:23:42 · 1806 阅读 · 1 评论 -
风格迁移篇--StarGAN v2:多域多样图像合成
一个好的图像到图像转换模型应该学习不同视觉域之间的映射,同时满足以下属性:1)生成图像的多样性和2)跨多个域的可扩展性。原创 2022-07-14 14:59:46 · 4502 阅读 · 0 评论 -
风格迁移篇--StarGAN:用于多域图像到图像翻译的统一生成对抗网络
StarGAN的这种统一模型架构允许在单个网络中同时训练具有不同域的多个数据集。这使得StarGAN的翻译图像质量优于现有模型,并且能够灵活地将输入图像翻译到任何所需的目标域。原创 2022-07-13 17:13:04 · 2859 阅读 · 0 评论 -
风格迁移篇-AdaIN --使用自适应实例规范化实时传输任意样式
一个新的自适应实例归一化(AdaIN)层,该层将内容特征的均值和方差与样式特征的均值和方差对齐。我们的方法实现了与现有最快方法相当的速度,不受预定义样式集的限制。此外,该方法允许灵活的用户控制,如内容风格权衡、风格插值、颜色和空间控制,所有这些都使用单个前馈神经网络。...原创 2022-07-13 15:40:19 · 3079 阅读 · 0 评论 -
风格迁移篇--AdaAttN:重新审视任意神经风格转移中的注意机制
本文提出了一种新的注意力和归一化模块,称为自适应注意力归一化:AdaAttN,实现了最先进的任意图像/视频风格迁移,性能优于SANet、AdaIN等网络,代码已开源原创 2022-07-13 14:32:40 · 3046 阅读 · 0 评论 -
Feature Statistics Mixing Regularization for Generative Adversarial Networks
1)鉴别器是否有偏差,以及2)如果消隐鉴别器将提高生成性能。事实上,我们发现经验证据表明,鉴别器对图像的风格(例如纹理和颜色)很敏感。作为补救措施,我们提出了特征统计混合正则化(FSMR),鼓励鉴别器的预测对输入图像的样式保持不变。具体而言,我们在鉴别器的特征空间中生成原始图像和参考图像的混合特征,并应用正则化,以便混合特征的预测与原始图像的预测一致。我们进行了大量实验,以证明我们的正则化降低了对样式的敏感性,并持续改进了九个数据集上各种GAN架构的性能。此外,将FSMR添加到最近提出的基于增强的GAN方法原创 2022-06-12 20:39:27 · 1102 阅读 · 0 评论 -
Pix2Pix原理解析以及代码流程
文章目录1、网络搭建2、反向传播过程3、PatchGAN4.与CGAN的不同之处1、网络搭建class UnetGenerator(nn.Module): """Create a Unet-based generator""" def __init__(self, input_nc, output_nc, num_downs, ngf=64, norm_layer=nn.BatchNorm2d, use_dropout=False): """Construct a U原创 2022-05-15 21:43:34 · 4937 阅读 · 6 评论 -
基于CycleGAN的风格迁移---用debug对CycleGAN源码解读
CycleGAN源码解读原创 2022-05-11 17:25:09 · 579 阅读 · 0 评论 -
万物皆可GAN ---普通GAN, pix2pix, CycleGAN和pix2pixHD的比较以及演变过程
普通GAN, pix2pix, CycleGAN和pix2pixHD的原理、比较以及演变过程原创 2022-05-04 11:06:18 · 2591 阅读 · 0 评论