源服装 + 目标模特(pose)= 目标模特穿着源服装的上身图像(TryOnDiffusion、LaDI-VTON 和OccluMix)

本文介绍虚拟试穿技术的最新进展,包括TryOnDiffusion、LaDI-VTON和OccluMix模型。TryOnDiffusion通过平行UNet架构解决服装细节丢失问题;LaDI-VTON是首个用于虚拟试穿的潜在扩散文本反转增强模型,能有效保持服装纹理;OccluMix则采用语义引导混合模块处理遮挡问题,提升试穿图像质量。这三者都展示了在虚拟试穿领域的创新和突破。
摘要由CSDN通过智能技术生成

TryOnDiffusion : A Table of Two UNets

Methods

Image-Based Virtual Try-On. 给定一对图像(目标人物,源服装),基于图像的虚拟试穿方法生成目标人物穿着源服装的外观。目前,绝大部分方法将试穿任务分解为两个阶段扭曲阶段阶段尽管这些方法取得了很大的进步,但仍然存在显式光流估计和扭曲带来的不对准问题。TryOnGAN[26]通过在未配对的时尚图像上训练姿势条件化的StyleGAN2[23],并在潜在空间中运行优化来实现试穿,解决了这个问题。TryOnGAN失去了服装的细节,即服装细节在潜在空间中的表征较少。衣服有图案或装饰,如口袋或特殊袖子时,这一点就变得明显了。

我们提出了一种新的架构,该架构在单个网络通道中执行隐式扭曲(没有计算流)和混合。实验表明,该方法可以在严重遮挡和各种身体姿势和形状下保持服装的细节。

目前最先进的扩散模型利用传统的UNet架构[17,34]和通道级拼接[36,38]进行图像调节。通道级拼接对于输入和输出像素完全对齐的图像到图像转换问题非常有效(例如,超分辨率,绘画和着色)。然而,它并不直接适用于我们的任务,因为试穿涉及高度非线性的转换,如服装扭曲。为了解决这一挑战,我们提出了为试穿量身定制的Parallel-UNet架构,其中服装通过交叉注意力机制进行隐式的扭曲。

2提供了我们的虚拟试穿方法的概述给定人物p的图像Ip和另一个人穿着服装g的图像Ig,我们的方法生成人物p穿着服装g的试穿结果Itr

<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

DrYJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值