Hair-Gan论文翻译

本文介绍了一种名为Hair-GANs的生成对抗网络结构,该结构能够从单个图像中恢复头发的3D结构。通过结合2D图像、泡沫深度图和2D特征,生成器网络可以生成3D体积场作为头发合成的结构指导。这种方法不仅在输入图像视图中重现头发,还能在其他视图中保留细节。Hair-GANs的训练数据由3D合成头发数据库和泡沫模型配准生成,解决了单视图头发建模的挑战,如缺乏深度信息和依赖大量数据库的问题。
摘要由CSDN通过智能技术生成

如果哪里翻译的不好,欢迎批评指正,后续会不断更正,转载注明出处

论文下载链接:https://www.sciencedirect.com/science/article/pii/S2468502X18300652

bust depth map:我看到论文中文的摘要写的是泡沫模型,主要不太了解3D模型的专业术语,就暂且用泡沫模型代替,看完论文我觉得它就是一个人体的半身模型,去除了头发,可以在4.2节看到。

Hair-GANS:从单张图像恢复3D头发结构

摘要

我们介绍一种生成对抗性网络结构—— Hair-GANs,能从单张图像中恢复头发的3D 结构。我们网络的目标是建立一个从二维头发映射到三维头发结构的参数化转换。三维头发结构被表示为一个三维体积场(3D体素场),它不仅能够记录头发缕所占用的空间还能记录方向。我们首先将其与一人头的泡沫模型配准,然后提取一组记录头发方向信息的2D 图像,连同提取的泡沫模型深度图输入我们的 Hair-GANs。利用我们的发生器网络,我们计算出三维体积场(3D体素场)作为最终头发合成的结构指导。建模结果不仅与输入图像中的头发相似,而且在其他视图中也具有许多生动的细节。通过模拟多种发型并与现有技术进行比较,证明了该方法的有效性。

1 引言

在当今新兴的虚拟现实和增强现实应用中,3D 虚拟建模技术日益成为热门。然而,最关键的任务之一头发建模,由于在现实世界中,存在复杂性和多样性的发型,仍然具有挑战性。与多视图建模方法相比,单视图头发建模方法被认为是一种更加用户友好的方法,多视图建模方法通常需要在受控的工作室环境中使用专门的设备,并且处理周期较长。

由于缺乏输入视图的信息,单视图头发建模技术通常依赖于一个大型数据库,其中包含数百或数千个用作头发形状、分布或复杂结构的先验知识的合成发型。这些数据驱动的方法有一些问题。首先,头发数据库需要大量空间存储,这限制了它们在移动设备等平台上的应用。其次,建模结果的质量依赖于从数量有限的数据库中搜索到的头发样本。虽然引入了后期细化以提高细节的准确性,但是最终结果的结构仍然受到初始样本的限制。此外,贪心搜索过程缓慢,难以平衡局部细节相似度和全局形状相似度之间的选择标准。

近年来,深度学习在许多研究领域得到了广泛的应用。深度学习方法最吸引人的特点之一是它能有效地将大数据量转化为高维特征表示。这些学到的特性足以描述一个新的数据,并建立从输入到目标输出的空间映射,完全独立于这些训练数据。文献[1]的方法和[11][12]都介绍了基于深度学习的单视图头发建模方法。在论文[1]中的方法,他们使用CNN网络对图像的头发区域和方向预测期进行检测,作为后续头发建模的预处理。[11]使用自动编码器直接学习从2D方向图到参数化为[13]中低分辨率的2D头皮图的头发支架的对应关系。Saito等。 [12]通过利用自动编码器的潜在空间在2D图像和3D头发结构之间建立桥梁,努力实现端到端3D头发结构生成。

本文介绍了生成对抗性网络结构—— Hair-GANs,它可以从单个输入图像中恢复出3D 的头发结构。正如视觉社区所研究的那样,生成对抗性网络能够比 CNN 和自动编码模型更好地捕捉模型分布,因为他们的对抗训练性质倾向于自己学习更多的通用距离测量方法,而不是手工编码。为了建立网络训练的数据库,我们使用了三维人工合成头发数据库。像[11]和[12]的深度学习方法一样,在网络训练完成后,大量的数据库被放置一边。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值