数据生成
文章平均质量分 91
数据生成相关,包括GAN、DDPM、文本图像生成、虚拟试衣、姿态迁移等
‘Atlas’
人工智能从业者,崇尚技术,享受学习的过程。主要研究方向:跨模态、文生图、虚拟试衣、目标检测、分割、关键点检测等
展开
-
InstructDiffusion-多种视觉任务统一框架
InstructDiffusion,MSRA出品,InstructDiffusion可处理各种视觉任务,包括理解任务(分割、关键点检测)、生成类任务(编辑和增强)原创 2023-11-29 15:28:37 · 1442 阅读 · 0 评论 -
TopNet-(CVPR2023)前背景图像合成
TopNet,CVPR2023,通过transformer结合目标特征及局部背景特征,预测目标尺度及放置位置,超越现有SOTA方法,并且在真实图片具有泛化性。原创 2023-11-24 10:50:00 · 1245 阅读 · 0 评论 -
KOSMOS-G-图像文本结合控制生成
KOSMOS-G,微软出品,通过文本及图像结合生成图片原创 2023-11-14 15:08:14 · 312 阅读 · 0 评论 -
Prompt-To-Prompt——仅通过文本进行图像编辑
Prompt-to-Prompt,google research出品,仅通过prompt,无需mask即可控制进行图像编辑。原创 2023-09-18 16:01:50 · 1258 阅读 · 0 评论 -
InstructPix2Pix(CVPR2023)-图像编辑论文解读
InstructPix2Pix,CVPR2023,加利福尼亚大学,伯克利分校出品,通过引导语即可完成图像编辑原创 2023-09-06 11:22:37 · 1704 阅读 · 0 评论 -
DIFFEDIT-图像编辑论文解读
DIFFEDIT,2022 Meta出品,利用文本进行图像编辑,性能超越SDEdit。原创 2023-08-24 22:34:56 · 633 阅读 · 0 评论 -
SDXL-Stable Diffusion改进版
Stability AI新作,SDXL,与之前Stable Diffusion相比,生成图像质量大幅提升。原创 2023-08-07 21:38:20 · 1758 阅读 · 0 评论 -
DreamBooth论文解读
DreamBooth,Google Research出品。仅需要3-5张目标图片,通过prompt引导就可生成该目标变体。原创 2023-06-19 22:55:36 · 2315 阅读 · 0 评论 -
DragGAN论文阅读
作者提出DragGAN,一种交互式基于点的图像编辑方法,可以依据用户输入操纵图像。这归因于两点:a. 隐向量优化模块,将处理点移动至目标点;b. 点跟踪模块准确跟踪处理点轨迹。DragGAN超越现有基于GAN的图像操纵方法,同时开拓新方向,利用生成先验进行图像操纵。原创 2023-06-13 22:23:22 · 692 阅读 · 0 评论 -
多条件引导图像生成-ControlNet安装使用
分割、pose等条件+文本引导图像生成,ControlNet使用教程原创 2023-05-16 23:18:25 · 535 阅读 · 2 评论 -
利用文本描述替换万物(Inpaint-Anything-Description)
Inpaint-Anything-Description,通过文本描述替换目标原创 2023-05-05 21:59:22 · 903 阅读 · 1 评论 -
Latent Diffusion(CVPR2022 oral)-论文阅读
LDM,CVPR22022 oral。作者提出的LDM在不降低质量情况下,大幅提升扩散模型训练及采样效率。在多个有条件图像生成领域,不需要特定任务结构基于cross-attention有条件机制即可达到SOTA或接近SOTA效果。原创 2023-04-08 09:04:39 · 1860 阅读 · 3 评论 -
ControlNet-有条件图文生成论文阅读
ControlNet 可以控制大的预训练扩散模型支持额外输入条件,ControlNet端到端的方式学习特定任务条件,即使训练集小(原创 2023-03-08 21:14:02 · 3544 阅读 · 0 评论 -
DALLE2-文本图像生成
DALLE2,文本引导图像生成,OpenAI出品原创 2023-01-03 22:29:01 · 1927 阅读 · 0 评论 -
wFlow(CVPR2022)-虚拟试衣论文解读
CVPR2022,字节&中山大学,提出wFlow,引入3D信息,达到SOTA效果,尤其在自然场景原创 2022-08-26 15:06:13 · 2740 阅读 · 5 评论 -
TPS Motion(CVPR2022)视频生成论文解读
本文提出无监督TPS Motion取得SOTA,1、提出thin-plate spline(TPS)运动估计,以生成更灵活光流,将源图特征迁移至目标图特征;2、为了补全缺失区域,使用多分辨率遮挡mask进行有效特征融合。3、额外辅助损失函数用于确保网络各模块分工,使得生成高质量图片;...原创 2022-07-24 13:12:18 · 3267 阅读 · 0 评论 -
Few-shot Video-to-Video(NeurIPS 2019)视频生成论文解读
few-shot vid2vid,通过基于样例图片的动态生成权重机制,提升视频生成泛化能力。原创 2022-07-17 13:55:15 · 648 阅读 · 0 评论 -
DaGAN论文解读
DaGAN用于会讲话的人头视频生成原创 2022-07-03 18:45:20 · 2453 阅读 · 0 评论 -
虚拟试衣-DiOr论文解读
DiOr按照穿衣顺序进行着装;原创 2022-05-04 15:39:39 · 1262 阅读 · 5 评论 -
虚拟试衣(unpaired)-PASTA-GAN论文解读
PASTA-GAN,二维图片虚拟试衣,不使用成对图片也可进行虚拟试衣。原创 2022-04-02 15:49:25 · 2542 阅读 · 2 评论 -
StyleGAN及StyleGANv2论文解读
文章目录StyleGAN贡献解决问题算法原理实验结果StyleGAN v2StyleGAN论文:《A Style-Based Generator Architecture for Generative Adversarial Networks》代码:https://github.com/NVlabs/styleganStyleGANv2论文:《Analyzing and Improving the Image Quality of StyleGAN》代码:https://github.com/NVl原创 2022-01-16 22:45:17 · 4964 阅读 · 0 评论 -
GAN-多域风格迁移-StarGANv2论文解读
文章目录解决问题创新点算法损失函数实验总结论文:《StarGAN v2: Diverse Image Synthesis for Multiple Domains》github:https://github.com/clovaai/stargan-v2解决问题常规风格迁移为一对一域迁移,当有N个域互相迁移时,则需要训练N*(N-1)个模型,显然一对一域迁移不适用于此场景。创新点本文提出StarGAN v2可实现多域之间互相迁移,同时开源动物脸数据集AFHQ算法好的图像与图像之间域的迁移应满足原创 2021-12-26 12:19:28 · 3001 阅读 · 6 评论 -
GAN-风格迁移-CycleGAN论文解读
CycleGAN风格迁移论文解读原创 2021-12-25 22:17:40 · 5157 阅读 · 0 评论