【虚拟换衣】OOTDiffusion: Outfitting Fusion based Latent Diffusion for Controllable Virtual Try-on

看着比较有意思的工作

虚拟服装试穿

OOTDiffusion: Outfitting Fusion based Latent Diffusion for Controllable Virtual Try-on
用于可控虚拟试穿 基于潜在扩散的服装合成

论文地址
代码地址

【虚拟换衣+论文+代码】2403.OOTDiffusion:高分辨率(1024x768)可控的虚拟试穿(已开源,暂不能训练)

请添加图片描述
请添加图片描述

Abstract

We present OOTDiffusion, a novel network architecture for realistic and controllable image-based virtual try-on (VTON). We leverage the power of pretrained latent diffusion models, designing an outfitting UNet to learn the garment detail features. Without a redundant warping process, the garment features are precisely aligned with the target human body via the proposed outfitting fusion in the self-attention layers of the denoising UNet. In order to further enhance the controllability, we introduce outfitting dropout to the training process, which enables us to adjust the strength of the garment features through classifier-free guidance. Our comprehensive experiments on the VITON-HD and Dress Code datasets demonstrate that OOTDiffusion efficiently generates high-quality try-on results for arbitrary human and garment images, which outperforms other VTON methods in both realism and controllability, indicating an impressive breakthrough in virtual try-on. Our source code is available at https://github.com/levihsu/OOTDiffusion.

我们介绍的 OOTDiffusion 是一种新颖的网络架构,可用于逼真、可控的基于图像的虚拟试穿(VTON)

我们利用预先训练的潜在扩散模型的力量,设计了一个服装 UNet 来学习服装细节特征。

  1. 在去噪 UNet 的自注意层中,服装特征通过拟议的服装融合与目标人体精确对齐,而无需冗余的扭曲过程。

  2. 为了进一步增强可控性,我们在训练过程中引入了outfit dropout,这使我们能够通过无分类器引导来调整服装特征的强度。

我们在 VITON-HD 和 Dress Code 数据集上进行的综合实验证明,OOTDiffusion 能有效地生成任意人体和服装图像的高质量试穿结果,在逼真度和可控性方面都优于其他 VTON 方法,这表明我们在虚拟试穿方面取得了令人瞩目的突破。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要在Unity中实现Kinect换装功能,可以参考以下步骤: 1. 创建新的Unity工程,并导入KinectFusionUnity插件(版本为Kinect v2 Examples with MS-SDK 2.13)。 2. 在场景中创建一个空节点,并将其设置为坐标原点。在该空节点下创建两个子节点,一个用于表示帽子,另一个用于表示衣服。 3. 在帽子和衣服节点下创建2D对象,并为它们设置所需的图片精灵。根据图片的不同大小,调整它们的大小。例如,如果图片分辨率为1080*1920,则可以将大小设置为0.13。 4. 在代码中,设置帽子和衣服的关键点位置。例如,将帽子设置为KinectInterop.JointType.Head,将衣服设置为KinectInterop.JointType.Neck。 5. 运行Unity项目并连接Kinect设备。 6. 使用Kinect设备捕捉用户的关节数据。 7. 根据捕捉到的关节数据,将帽子和衣服的位置和姿态与用户的头部和颈部对齐。 8. 实现换装功能,当用户选择不同的帽子或衣服时,通过修改帽子和衣服节点下的2D对象的精灵来实现[2]。 以上步骤提供了一个基本的框架来实现Unity中的Kinect换装功能。具体实现的细节可以根据项目需求进行调整和扩展。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [Unity体感设备KinectV2虚拟换装解决方案](https://blog.csdn.net/qq_41088607/article/details/126784596)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [unity3d kinect体感互动解决方案——2D体感换装](https://blog.csdn.net/ahpeijing/article/details/117988269)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值