基于距离变换的骨架提取_CVPR 2020 (Oral) | DeepCap: 基于弱监督学习的单目人体动作捕捉...

DeepCap是一种使用弱监督学习的单目人体动作捕捉方法,由姿态估计网络(PoseNet)和非刚性变形网络(DefNet)组成。通过弱监督训练,无需3D标注数据,利用多视角视频序列训练,实现对人体骨架和非刚性表面变形的估计。在测试阶段,仅需单目RGB视频即可进行动作捕捉。
摘要由CSDN通过智能技术生成

DeepCap: Monocular Human Performance Capture Using Weak Supervision

人体动作捕捉一直以来都是一个重要的研究热点,在诸如电影制作、虚拟试衣、混合现实等众多领域都有着重要的应用,本文提出了一种基于单目RGB视频的人体捕捉方案,文章已被CVPR 2020接收。

320c94db08e0a28e86692e60b367715a.png

文章作者来自德国马普所、德国萨尔大学和美国斯坦福大学,作者提出了一个基于弱监督神经网络的单目人体动作捕捉方法。整个网络架构分为两个网络,分别进行人体姿态估计和非刚性表面变形,训练基于多视角图像以弱监督的方式进行。

项目主页:

DeepCap: Monocular Human Performance Capture Using Weak Supervision​people.mpi-inf.mpg.de

ce63a316cc626b94cb48aeebb199f442.png
Teaser

下面展示了文章的视频

df48ae76534fd2c04fe42d9cbb1e232d.png
CVPR 2020(Oral) | DeepCaphttps://www.zhihu.com/video/1232324693669511168

Method

给定一个穿着普通衣服的运动中的人体的RGB视频,目标是捕获整个人体的稠密变形表面。作者训练了一个神经网络来达到这个目的,整个网络由两个部分组成:

  • PoseNet:从单目图像估计人体骨架的姿态 (基于关节点角度表达)
  • DefNet:即变形网络 (Deformation Network),回归人体表面的非刚性形变 (基于嵌入变形图 (Embedded Deformation Graph) 表达)

为了避免3D标注数据的使用,整个网络以弱监督的方向训练,为此作者提出了一个可微 (differentiable) 的人体变形和渲染模型,使得可以渲染人体模型并将其与2D图像进行比较,以此来反向传播损失。作者在经过校准的带有绿幕的多相机工作室中捕捉视频序列作为训练数据,但在测试阶段,只需要单目RGB视频便可以进行人体动作捕捉。整个方法流程如下图所示:

289b9d28d42fd2f90474d62e5eb73a4d.png
Overview

Template and Data Acquisition

Character Model

文章方法依赖个体相关的3D模板网格,作者首先使用3D扫描仪扫描出目标人体的带纹理的网格,然后再自动绑定一个骨架,该骨架相关的参数包含关节点角度

equation?tex=%5Cboldsymbol%7B%5Ctheta%7D+%5Cin+%5Cmathbb%7BR%7D%5E%7B27%7D,相对于相机的旋转
equation?tex=%5Cboldsymbol%7B%5Calpha%7D+%5Cin+%5Cmathbb%7BR%7D%5E3 和平移
equation?tex=%5Cmathbf%7Bt%7D+%5Cin+%5Cmathbb%7BR%7D%5E3。为了对人体表面的非刚性形变进行建模,作者自动计算了一个包含
equation?tex=K 个节点的嵌入变形图
equation?tex=%5Cmathcal%7BG%7D,节点参数包含欧拉角
equation?tex=%5Cmathbf%7BA%7D+%5Cin+%5Cmathbb%7BR%7D%5E%7BK+%5Ctimes+3%7D 和平移
equation?tex=%5Cmathbf%7BT%7D+%5Cin+%5Cmathbb%7BR%7D%5E%7BK+%5Ctimes+3%7D。与 LiveCap[2] 一致作者将人体网格划分为不同的非刚性类别,得到每个顶点的刚性权重
equation?tex=s_i,这样便可以根据不同的表面材质来建模变形,如皮肤变形的幅度会比衣服更小。下图展示了两个角色模型。

bd0c2049f272f90d592bb9170431268f.png
Character Model

Template Mesh

人体模板网格是通过商业软件 Agisoft Metashape 重建的,作者使用134个彩色相机同时采集了T-Pose下的静态人体图片,该软件从这134张彩色图片重建出带纹理的人体模型,然后作者对重建后的网格进行了简化和重建网格化,以得到质量更好地三角网格。

Embedded Deformation Graph

为了得到人体的嵌入变形图,作者对人体模板网格进行了简化,得到了大约含有500个顶点的简化网格,通过简化后的网格的拓扑关系计算每个节点的相邻节点集合

equation?tex=%5Cmathcal%7BN%7D_%7B%5Cmathrm%7Bn%7D%7D%28k%29,通过在模板网格寻找每个简化网格顶点的最近点作为嵌入变形图的节点位置
equation?tex=%5Cmathbf%7BG%7D,通过计算节点
equation?tex=k 到顶点
equation?tex=i 的测地距离 (geodesic distance) 来计算影响顶点
equation?tex=i 的节点集合
equation?tex=%5Cmathcal%7BN%7D_%7B%5Cmathrm%7Bvn%7D%7D%28i%29

Skeleton

作者通过拟合 SMPL 人体模型到模板网格来将其骨架嵌入到人体中,对于与皮肤比较近的模板网格顶点如裤子短袖等,直接将 SMPL 的蒙皮权重迁移到模板网格顶点上,对于离得比较远的顶点如裙子等,通过 Blender 软件自动计算蒙皮权重。人体骨架一共有23个关节点包含27个角度参数,并含有21个关键点 (17个人体和4个人脸关键点)。

Training Data

作者使用带有绿幕的标定好的多相机系统来采集表演者各种动作的多视角视频,并使用 OpenPose 检测图片中的2D人体关键点并进行时序滤波。然后计算前景人体Mask并计算对应的距离变换图 (distance transform image)

equation?tex=D_%7Bf%2Cc%7D,其中
equation?tex=f+%5Cin+%5B0%2C+F%5D
equation?tex=c+%5Cin+%5B0%2C+C%5D分别表示视频帧序号和相机编号。在训练阶段,随机采样一个相机视角
equation?tex=c%27 和 视频帧
equation?tex=f%27 ,并使用基于2D关键点计算的人体包围盒裁剪图片。最终训练时的输入图片
equation?tex=I_%7Bf%27%2Cc%27%7D+%5Cin+%5Cmathbb%7B256+%5Ctimes+256+%5Ctimes+3%7D 是去除背景后,并随机亮度、色相、对比度和饱和度来增强前景而获得的。

Pose Network

PoseNet 使用在 ImageNet 上预训练的 ResNet50 作为骨干网,最后一个全连接层改为输出关节点角度

equation?tex=%5Cboldsymbol%7B%5Ctheta%7D 和相对相机的旋转
equation?tex=%5Cboldsymbol%7B%5Calpha%7D。由于要想得到真实的
equation?tex=%5Cboldsymbol%7B%5Ctheta%7D
equation?tex=%5Cboldsymbol%7B%5Calpha%7D 非常困难,作者将人体骨架去拟合检测的多视角2D关键点来进行弱监督训练。

Kinematics Layer

作者介绍了一种人体动力学网络层 (Kinematics Layer),将角度

equation?tex=%5Cboldsymbol%7B%5Ctheta%7D 和旋转
equation?tex=%5Cboldsymbol%7B%5Calpha%7D 作为输入,计算骨架的
equation?tex=M 个 3D 关键点 (包括17个人体关键点和4个人脸关键点) 位置
equation?tex=P_%7Bc%27%7D+%5Cin+%5Cmathbb%7BR%7D%5E%7BM+%5Ctimes+3%7D,这里
equation?tex=P_%7Bc%27%7D 是相对于相机坐标系的,如果要将其投影到其他视角,需要先将其变换到世界坐标系

equation?tex=%5Cmathbf%7BP%7D_%7Bm%7D%3D%5Cmathbf%7BR%7D_%7Bc%5E%7B%5Cprime%7D%7D%5E%7BT%7D+%5Cmathbf%7BP%7D_%7Bc%5E%7B%5Cprime%7D%2C+m%7D%2B%5Cmathbf%7Bt%7D+%5C%5C

其中

equation?tex=%5Cmathbf%7BR%7D_%7Bc%5E%7B%5Cprime%7D%7D 是相机
equation?tex=c%27的旋转矩阵,
equation?tex=%5Cmathbf%7Bt%7D 是骨架的整体平移。

Global Alignment Layer

作者在 Kinematics Layer 之后加入一个全局对齐网络层 (Global Alignment Layer) 计算整体平移

equation?tex=%5Cmathbf%7Bt%7D,来确定骨架模型在世界坐标系中的位置。通过极小化旋转后的关键点
equation?tex=%5Cmathbf%7BR%7D_%7Bc%5E%7B%5Cprime%7D%7D%5E%7BT%7D+%5Cmathbf%7BP%7D_%7Bc%5E%7B%5Cprime%7D%7D 到对应的从相机中心
equation?tex=%5Cmathbf%7Bo%7D_%7Bc%7D 到2D关键点的射线的距离来得到

equation?tex=%5Csum_%7Bc%7D+%5Csum_%7Bm%7D+%5Csigma_%7Bc%2C+m%7D%5Cleft%5C%7C%5Cleft%28%5Cmathbf%7BR%7D_%7Bc%5E%7B%5Cprime%7D%7D%5E%7BT%7D+%5Cmathbf%7BP%7D_%7Bc%5E%7B%5Cprime%7D%2C+m%7D%2B%5Cmathbf%7Bt%7D-%5Cmathbf%7Bo%7D_%7Bc%7D%5Cright%29+%5Ctimes+%5Cmathbf%7Bd%7D_%7Bc%2C+m%7D%5Cright%5C%7C%5E%7B2%7D+%5C%5C

其中

equation?tex=%5Cmathbf%7Bd%7D_%7Bc%2C+m%7D 是从相机
equation?tex=c 到第
equation?tex=m 个2D关键点的射线:

equation?tex=%5Cmathbf%7Bd%7D_%7Bc%2C+m%7D%3D%5Cfrac%7B%5Cleft%28%5Cmathbf%7BE%7D_%7Bc%7D%5E%7B-1%7D+%5Ctilde%7B%5Cmathbf%7Bp%7D%7D_%7Bc%2C+m%7D%5Cright%29_%7Bx+y+z%7D-%5Cmathbf%7Bo%7D_%7Bc%7D%7D%7B%5Cleft%5C%7C%5Cleft%28%5Cmathbf%7BE%7D_%7Bc%7D%5E%7B-1%7D+%5Ctilde%7B%5Cmathbf%7Bp%7D%7D_%7Bc%2C+m%7D%5Cright%29_%7Bx+y+z%7D-%5Cmathbf%7Bo%7D_%7Bc%7D%5Cright%5C%7C%7D+%5C%5C

这里

equation?tex=%5Cmathbf%7BE%7D_c+%5Cin+%5Cmathbb%7BR%7D%5E%7B4+%5Ctimes+4%7D 是相机
equation?tex=c 的投影矩阵,
equation?tex=%5Ctilde%7B%5Cmathbf%7Bp%7D%7D_%7Bc%2C+m%7D%3D%28%5Cmathbf%7Bp%7D_%7Bc%2C+m%7D%2C+1%2C+1%29%5ET 。每个点到射线的距离用检测的2D关键点的置信度
equation?tex=%5Csigma_%7Bc%2Cm%7D 来做权重,对于置信度低于0.4的直接设为0。极小化这个目标函数的意思是对于世界坐标系中的3D人体关键点,其从每个相机视角看过去,应该和图片中检测的2D关键点一致。

该目标函数可以直接计算一个闭式解:

equation?tex=%5Cmathbf%7Bt%7D%3D%5Cmathbf%7BW%7D%5E%7B-1%7D+%5Csum_%7Bc%2C+m%7D+%5Cmathbf%7BD%7D_%7Bc%2C+m%7D%5Cleft%28%5Cmathbf%7BR%7D_%7Bc%5E%7B%5Cprime%7D%7D%5E%7BT%7D+%5Cmathbf%7BP%7D_%7Bc%5E%7B%5Cprime%7D%2C+m%7D-%5Cmathbf%7Bo%7D_%7Bc%7D%5Cright%29%2B%5Cmathbf%7Bo%7D_%7Bc%7D-%5Cmathbf%7BR%7D_%7Bc%5E%7B%5Cprime%7D%7D%5E%7BT%7D+%5Cmathbf%7BP%7D_%7Bc%5E%7B%5Cprime%7D%2C+m%7D+%5C%5C

其中

equation?tex=%5Cmathbf%7BW%7D%3D%5Csum_%7Bc%7D+%5Csum_%7Bm%7D+%5Cmathbf%7BI%7D-%5Cmathbf%7BD%7D_%7Bc%2C+m%7D+%5C%5C

这里

equation?tex=%5Cmathbf%7BI%7D
equation?tex=3+%5Ctimes+3 的单位阵,
equation?tex=%5Cmathbf%7BD%7D_%7Bc%2Cm%7D+%3D+%5Cmathbf%7Bd%7D_%7Bc%2Cm%7D+d_%7Bc%2Cm%7D%5ET。注意该闭式解的计算相对于关键点位置
equation?tex=%5Cmathbf%7BP%7D_%7Bc%27%7D 是完全可微的。

Sparse Keypoint Loss

PoseNet 使用的2D关键点损失函数是

equation?tex=%5Cmathcal%7BL%7D_%7B%5Cmathrm%7Bkp%7D%7D%28%5Cmathbf%7BP%7D%29%3D%5Csum_%7Bc%7D+%5Csum_%7Bm%7D+%5Clambda_%7Bm%7D+%5Csigma_%7Bc%2C+m%7D%5Cleft%5C%7C%5Cpi_%7Bc%7D%5Cleft%28%5Cmathbf%7BP%7D_%7Bm%7D%5Cright%29-%5Cmathbf%7Bp%7D_%7Bc%2C+m%7D%5Cright%5C%7C%5E%7B2%7D+%5C%5C

其保证每个关键点能够投影到各个相机视角下对应的检测到的2D关键点

equation?tex=%5Cmathbf%7Bp%7D_%7Bc%2Cm%7D 上,
equation?tex=%5Cpi_%7Bc%7D 是相机
equation?tex=c 的投影公式,
equation?tex=%5Clambda_%7Bm%7D 是一个基于关节链的权重,在训练时动态变化以更好地收敛。

Pose Prior Loss

为了避免出现不自然的姿态,作者针对关节点的角度施加了一个姿态先验损失:

equation?tex=%5Cbegin%7Barray%7D%7Bc%7D+%5Cmathcal%7BL%7D_%7B%5Ctext+%7Blimit+%7D%7D%28%5Cboldsymbol%7B%5Ctheta%7D%29%3D%5Csum_%7Bi%3D1%7D%5E%7B27%7D++%5CPsi%5Cleft%28%5Cboldsymbol%7B%5Ctheta%7D_%7Bi%7D%5Cright%29++%5C%5C+%5C%5C+%5CPsi%28x%29%3D%5Cleft%5C%7B%5Cbegin%7Barray%7D%7Bl%7D%5Cleft%28x-%5Cboldsymbol%7B%5Ctheta%7D_%7B%5Cmax+%2C+i%7D%5Cright%29%5E%7B2%7D%2C+%5Ctext+%7B+if+%7D+x%3E%5Cboldsymbol%7B%5Ctheta%7D_%7B%5Cmax+%2C+i%7D+%5C%5C+%5Cleft%28%5Cboldsymbol%7B%5Ctheta%7D_%7B%5Cmin+%2C+i%7D-x%5Cright%29%5E%7B2%7D%2C+%5Ctext+%7B+if+%7D+x%3C%5Cboldsymbol%7B%5Ctheta%7D_%7B%5Cmin+%2C+i%7D+%5C%5C+0%5Cend%7Barray%7D%2C%5Ctext+%7B+otherwise+%7D+%5Cright.%5Cend%7Barray%7D+%5C%5C

以使得每个关节点角度

equation?tex=%5Cboldsymbol%7B%5Ctheta%7D_i 处于
equation?tex=%5B%5Cboldsymbol%7B%5Ctheta%7D_%7B%5Cmathrm%7Bmin%7D%2Ci%7D%2C+%5Cboldsymbol%7B%5Ctheta%7D_%7B%5Cmathrm%7Bmax%7D%2Ci%7D%5D 的范围内。

Deformation Network

只有 PoseNet 预测的骨架姿态并不能表达皮肤、衣服的非刚性形变,因此作者将骨架运动和非刚性变形解耦,通过 DefNet 从输入图片

equation?tex=I_%7Bc%27%7D 回归基于嵌入变形图表达的非刚性形变参数,即每个图节点的旋转角度
equation?tex=%5Cmathbf%7BA%7D 和平移向量
equation?tex=%5Cmathbf%7BT%7D。DefNet 使用和 PoseNet 一样的骨干网络,最后一个全连接层输出一个
equation?tex=6K 维的向量。在训练 DefNet 期间固定 PoseNet 的网络权重。同样,这里不直接使用
equation?tex=%5Cmathbf%7BA%7D
equation?tex=%5Cmathbf%7BT%7D 作为监督,而是借助一个带有可微渲染 (differentiable rendering) 的变形网络层,使用
多视角人体轮廓图 作为弱监督。

Deformation Layer

变形层使用 DefNet 输出的

equation?tex=%5Cmathbf%7BA%7D
equation?tex=%5Cmathbf%7BT%7D 作为输入来非刚性地变形人体表面

equation?tex=%5Cmathbf%7BY%7D_%7Bi%7D%3D%5Csum_%7Bk+%5Cin+%5Cmathcal%7BN%7D_%7B%5Cmathrm%7Bv%7D_%7B%5Cmathrm%7Bn%7D%7D%7D%28i%29%7D+w_%7Bi%2C+k%7D%5Cleft%28R%5Cleft%28%5Cmathbf%7BA%7D_%7Bk%7D%5Cright%29%5Cleft%28%5Chat%7B%5Cmathbf%7BV%7D%7D_%7Bi%7D-%5Cmathbf%7BG%7D_%7Bk%7D%5Cright%29%2B%5Cmathbf%7BG%7D_%7Bk%7D%2B%5Cmathbf%7BT%7D_%7Bk%7D%5Cright%29++%5C%5C

这里

equation?tex=%5Cmathbf%7BY%7D%2C+%5Chat%7B%5Cmathbf%7BV%7D%7D+%5Cin+%5Cmathbb%7BR%7D%5E%7BN+%5Ctimes+3%7D 是变形后和变形前模板网格的顶点坐标,
equation?tex=w_%7Bi%2Ck%7D 是基于测地距离 (geodesic distances) 的网格顶点相对于变形图节点的权重,
equation?tex=%5Cmathbf%7BG%7D+%5Cin+%5Cmathbb%7BR%7D%5E%7BK+%5Ctimes+3%7D 是未变形的图节点的位置,
equation?tex=%5Cmathcal%7BN%7D_%7B%5Cmathrm%7Bvn%7D%7D%28i%29 是所有影响顶点
equation?tex=i 的图节点集合,
equation?tex=R%28%5Ccdot%29 将欧拉角转化为旋转矩阵的函数。在变形后的网格上进一步作用骨架姿态,可以得到给定相机坐标的网格顶点位置:

equation?tex=%5Cmathbf%7BV%7D_%7B%5Cmathrm%7Bc%7D%5E%7B%5Cprime%7D%2C+i%7D%3D%5Csum_%7Bk+%5Cin+%5Cmathcal%7BN%7D%2C%28i%29%7D+w_%7Bi%2C+k%7D%5Cleft%28R_%7B%5Cmathrm%7Bsk%7D%2C+k%7D%28%5Cboldsymbol%7B%5Ctheta%7D%2C+%5Cboldsymbol%7B%5Calpha%7D%29+%5Cmathbf%7BY%7D_%7Bi%7D%2Bt_%7B%5Cmathrm%7Bsk%7D%2C+k%7D%28%5Cboldsymbol%7B%5Ctheta%7D%2C+%5Cboldsymbol%7B%5Calpha%7D%29%5Cright%29+%5C%5C

这里

equation?tex=R_%7B%5Cmathrm%7Bsk%7D%2C+k%7D
equation?tex=t_%7B%5Cmathrm%7Bsk%7D%2C+k%7D 分别是基于对偶四元数蒙皮 (Dual Quaternion Skinning, DQS) 从姿态参数计算的节点旋转和平移。这里两个公式对于骨架姿态参数和图节点参数也都是可微的,因此可以直接继承到深度学习框架中。此时计算的
equation?tex=%5Cmathbf%7BV%7D_%7B%5Cmathrm%7Bc%7D%5E%7B%5Cprime%7D%2C+i%7D 还是处于相机坐标系下,通过公式
equation?tex=%5Cmathbf%7BV%7D_i+%3D+%5Cmathbf%7BR%7D_%7Bc%27%7D%5ET%5Cmathbf%7BV%7D_%7B%5Cmathrm%7Bc%7D%5E%7B%5Cprime%7D%2C+i%7D+%2B+%5Cmathbf%7Bt%7D 可以将其变换到世界坐标系下。

Non-rigid Silhouette Loss

轮廓损失促使非刚性形变的网格与所有相机视角下的人体轮廓相匹配,其通过距离变换表示来计算

equation?tex=%5Cmathcal%7BL%7D_%7B%5Cmathrm%7Bsil%7D%7D%28%5Cmathbf%7BV%7D%29%3D%5Csum_%7Bc%7D+%5Csum_%7Bi+%5Cin+%5Cmathcal%7BB%7D_%7Bc%7D%7D+%5Crho_%7Bc%2C+i%7D%5Cleft%5C%7CD_%7Bc%7D%5Cleft%28%5Cpi_%7Bc%7D%5Cleft%28%5Cmathbf%7BV%7D_%7Bi%7D%5Cright%29%5Cright%29%5Cright%5C%7C%5E%7B2%7D+%5C%5C

这里

equation?tex=%5Cmathcal%7BB%7D_%7Bc%7D 是变形后的3D网格投影到相机
equation?tex=c 下的距离变换图
equation?tex=D_c 后的边界顶点集合,
equation?tex=%5Crho_%7Bc%2Ci%7D 是与 LiveCap[2] 中类似的方向权重,指导边界顶点沿着
equation?tex=D_c 的梯度方向运动。轮廓损失确保投影的网格边界处于距离变换图的零等值面,也就是与人体前景轮廓对齐。

e667c9f065cec3f3443fb9062315477b.png
Silhouette Alignment

Sparse Keypoint Graph Loss

仅仅使用轮廓损失可能会导致错误的网格到图像的对齐,特别是对于姿态复杂的运动情况。因此作者提出了一个与 PoseNet 中类似的稀疏关键点损失来约束网格变形:

equation?tex=%5Cmathcal%7BL%7D_%7B%5Cmathrm%7Bkpg%7D%7D%28%5Cmathbf%7BM%7D%29%3D%5Csum_%7Bc%7D+%5Csum_%7Bm%7D+%5Csigma_%7Bc%2C+m%7D%5Cleft%5C%7C%5Cpi_%7Bc%7D%5Cleft%28%5Cmathbf%7BM%7D_%7Bm%7D%5Cright%29-%5Cmathbf%7Bp%7D_%7Bc%2C+m%7D%5Cright%5C%7C%5E%7B2%7D+%5C%5C

与 PoseNet 中不同,这里的关键点

equation?tex=%5Cmathbf%7BM%7D 是通过嵌入变形图计算得到的,首先在标准姿态下找到离关键点
equation?tex=m 最近的节点
equation?tex=g,然后取
equation?tex=w_%7Bm%2Cg%7D+%3D+1.0 通过上面小节的公式计算变形后的关键点
equation?tex=%5Cmathbf%7BM%7D_%7Bc%27%7D,然后将其变换到世界坐标系
equation?tex=%5Cmathbf%7BM%7D_%7Bm%7D%3D%5Cmathbf%7BR%7D_%7Bc%5E%7B%5Cprime%7D%7D%5E%7BT%7D+%5Cmathbf%7BM%7D_%7Bc%5E%7B%5Cprime%7D%2C+m%7D%2B%5Cmathbf%7Bt%7D

As-rigid-as-possible Loss

为了增强变形后网格表面的局部光滑性,作者进一步施加了尽可能刚性 (As-rigid-as-possible, ARAP)损失:

equation?tex=%5Cmathcal%7BL%7D_%7B%5Ctext+%7Barap+%7D%7D%28%5Cmathbf%7BA%7D%2C+%5Cmathbf%7BT%7D%29%3D%5Csum_%7Bk%7D+%5Csum_%7Bl+%5Cin+%5Cmathcal%7BN%7D_%7B%5Cmathrm%7Bn%7D%7D%28k%29%7D+u_%7Bk%2C+l%7D%5Cleft%5C%7Cd_%7Bk%2C+l%7D%28%5Cmathbf%7BA%7D%2C+%5Cmathbf%7BT%7D%29%5Cright%5C%7C_%7B1%7D+%5C%5C

其中

equation?tex=d_%7Bk%2C+l%7D%28%5Cmathbf%7BA%7D%2C+%5Cmathbf%7BT%7D%29%3DR%5Cleft%28%5Cmathbf%7BA%7D_%7Bk%7D%5Cright%29%5Cleft%28%5Cmathbf%7BG%7D_%7Bl%7D-%5Cmathbf%7BG%7D_%7Bk%7D%5Cright%29%2B%5Cmathbf%7BT%7D_%7Bk%7D%2B%5Cmathbf%7BG%7D_%7Bk%7D-%5Cleft%28%5Cmathbf%7BG%7D_%7Bl%7D%2B%5Cmathbf%7BT%7D_%7Bl%7D%5Cright%29+%5C%5C

equation?tex=%5Cmathcal%7BN%7D_%7B%5Cmathrm%7Bn%7D%7D%28k%29 是节点
equation?tex=k 的相邻节点集合,权重因子
equation?tex=u_%7Bk%2Cl%7D 影响变形图中每个部分的刚性程度,通过对所有与节点
equation?tex=k
equation?tex=l 相连的网格顶点的刚性权重
equation?tex=s_i 平均得到。这样网格能够基于表面材质进行相应程度的变形,如影响裙子的节点比影响皮肤的节点有更大的变形空间。

下图展示了 DefNet 的改进效果,其能够使得网格更加贴合图像中的人体轮廓。

ec9b623feb770d89ace5a047a03ccef8.png
DefNet

In-the-wild Domain Adaptation

由于文章的训练集都是在绿幕场景下采集的,而测试阶段使用的都是自然场景下的视频,因此由于光照条件和相机的不同,两者之间存在明显的差异。为了提高在自然图片下的表现,作者使用2D关键点和轮廓损失在单目测试图片上进行少量迭代以对网络微调,这样可以大大提高测试时的性能。

6da98f85547869783eca33fa16a3c15b.png
Domain Adaptation

Results

文章所有实验都是在带有 NVIDIA Tesla V100 GPU 的计算机上进行,整个方法前向推理一次需要 50ms,其中 PoseNet 和 DefNet 分别消耗 25ms。在测试阶段使用现有的视频分割方法来去除输入图像中的背景。作者最后还对得到的网格顶点进行了高斯核为 5 帧的时序光滑。

下图展示了文章方法的一些图片结果。

5884682a817828d223b1058404e89caf.png
Qualitative Results

作者还将文章方法与之前方法包括 HMR [CVPR 2018]LiveCap [SIGGRAPH 2019]PIFu [ICCV 2019]DeepHuman [ICCV 2019] 进行了定性和定量的比较,下面展示了定性比较的结果,本文的结果更加准确,在追踪阶段更加稳定鲁棒。

d86e1ba5e76c9005404d1fc7eff78f4a.png
Qualitative Comparisons

下面的两个表格展示了文章方法在骨架姿态准确性和重建网格准确性方面与其他方法的比较,文章方法都取得了更好地结果。

50b6492e9b6d1d2b1046aada92c1003f.png
Quantitative Comparisons

参考

  1. DeepCap: Monocular Human Performance Capture Using Weak Supervision. Marc Habermann, Weipeng Xu, Michael Zollhoefer, Gerard Pons-Moll, Christian Theobalt. CVPR 2020 (Oral).
  2. LiveCap: Real-time Human Performance Capture from Monocular Video. Marc Habermann, Weipeng Xu, Michael Zollhoefer, Gerard Pons-Moll, Christian Theobalt. SIGGRAPH 2019.

欢迎关注公众号“人脸人体重建”,和您分享值得关注的人脸人体相关技术最新文章。

7d9ac61a9bd9672c2f7ef15250473447.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值