Textured Neural Avatars 论文方法简述

论文链接:Textured Neural Avatar
CMU Panotic dataset链接:CMU Panoptic Dataset

完成的工作:video to video translation,从输入的有限角度图片合成任意viewpoint的、与输入不同pose的image sequence,即video

问题:
1、如何获得input pose?
CMU Panoptic数据集自带骨骼点数据。对于其他的数据集,先对单目RGB视频的前五帧应用Openpose得到五个2D pose,再lift得到第五帧时的3D pose
2、如何获得ground-truth foreground mask(计算mask的loss时要用)?
用DeepLabv3+生成,用GrabCut来refine

Methods

1、Input and Output

输入:image i(视频中的一帧),以及对应image i的map stack B_{i}B_{i}包括了image i中pose的信息。B_{i}中的每个map {B_{i}}^{j}包含第j块“火柴人”的骨头在相机平面上的投影(也就是说,被第j块骨头覆盖的pixel在{B_{i}}^{j}中对应的值非零,其余pixel在{B_{i}}^{j}中对应的值为零)。每块骨头覆盖的区域(segment)是由关节点确定的,关节点有横纵坐标和深度坐标,而segment内的普通点没有深度坐标,因此对每个segment里的普通点的深度坐标进行线性插值,并据此确定{B_{i}}^{j}中对应的值 

输出:一个RGB image(three-channel stack)I_{i} 和一个mask(single-channel stack)M_{i}

2、Baseline

Image-to-image translation network,使用 fully-convolutional architecture直接将B_{i}映射到I_{i}M_{i}。此文具体选用了一个video-to-video的变体来作为baseline

3、Textured Neural Avatar

上述baseline的系统强烈依赖于全卷积结构,而几乎没有使用任何domain-specific的知识。此文对纹理(texture)进行显式建模(怎么显式建模?),从而保证身体各个部分在不同姿势下纹理的一致性。

此文的方法参考了DensePose,将body分成n=24个部分,每个body part都有一个2D参数。此外,每个body part都有一个texture map T^{k}(实际上就是UV贴图),其大小是预先设置的,此文中为256\times256。参数k表示第k个body part。Input image中的每一个pixel都被assign到24个body part中的一个或者background里,结果用P_{i}(stack of body assignment stack)表示。同时得到每个pixel在body part内部的坐标,结果用C_{i}(stack of body part coordinate)表示。DensePose使用image来估计assignment和coordinate,而本文仅使用了B_{i}

P_{i}由n+1个map组成,map内元素非负。{P_{i}}^{k}\left [ x,y \right ] 表示image中的一点 \left ( x,y \right ) 属于第 k 个body part或background的概率(k=n 为background),且有 \sum_{k=0}^{n}{P_{i}}^{k}\left [ x,y \right ]=1

C_{i}由2n个map组成,map内元素为0~w之间的实数。w为texture map T^{k} 的尺寸,此处w=256。{C_{i}}^{2k}\left [ x,y \right ] 和 {C_{i}}^{2k+1}\left [ x,y \right ] 表示 image中的一点\left ( x,y \right )在第 k 个body part中的坐标

系统输出imageI_{i} 可以用texture element加权表示:

s(P_{i},C_{i},T)\left [ x,y \right ]=\sum_{k=0}^{n-1}{P_{i}}^{k}\left [ x,y \right ]\cdot {T_{}}^{k}\left [{C_{i}}^{2k} \left [ x,y \right ], {C_{i}}^{2k+1}\left [ x,y \right ]\right]

其中s函数是sampling function,其输出就是I_{i}(当然,最终的输出结果需要多次回馈、迭代)。xy非整数处,采用双线性插值

此文通过训练得到跟据B_{i}预测P_{i}C_{i}的网络g_{\phi }以及网络参数\phig_{\phi }有两个分支:{g_{\phi }}^{P}{g_{\phi }}^{C}。为了训练参数,要计算loss并回馈到T^{k}g_{\phi },使得每一次迭代不仅更新网络参数,也更新纹理。

对mask的训练也要计算与ground-truth mask之间的loss,回馈迭代

4、Textured Neural Avatar的初始化

此文表示网络模型初始化参数对于3D重建的成功非常重要。初始化g_{\phi }有两种方式:
1、先把input放到DensePose里跑一边得到output,然后训练一个translation network g_{\phi } between input and DensePose output作为初始
2、Transfer learning,由于不同人体之间有差异但差异不大,可以使用别的data训练出来的g_{\phi }作为初始

接着对T^{k}进行初始化。对于input image中每个pixel,根据{g_{\phi }}^{P}得到其body part assignment,根据{g_{\phi }}^{C}得到其对应的texture pixel(不是一一映射)。每个texture pixel的值(RGB)被初始化为映射到它的image pixel的均值,没有被image pixel映射到的texture pixel初始化为黑色。

画了张图完整表示这套系统的工作流程:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值