人体3D重建-ICON论文解读


论文: 《ICON : Implicit Clothed humans Obtained from Normals》
github: https://github.com/yuliangxiu/icon

创新点

现有方法需要3D扫描或者具有精心控制的2D图像进行3D重建,作者提出ICON,可通过不受约束的2D图像建模,结合所有建模结果生成动画;
现有方法对各种姿势人体3D建模不够鲁棒,由于使用全局特征进行编码,对全局姿势比较敏感;为解决这个问题,ICON使用局部特征。
在AGORA和CAPE数据集上,即使训练数据有限,ICON获得SOTA,而且在非同分步数据集上也比较鲁棒。

算法

mesh-based方法具有很好的正则化,而深层隐式函数具有更强的表现力;ICON将两者结合。ICON输入穿衣的人体RGB图及SMPL人体估计,输出穿衣的像素级3D重构结果;
在这里插入图片描述
ICON结构如图3,主要包括两个模块:Body-guided normal预测、基于局部特征隐式三维重建。

Body-guided normal prediction

Body-guided normal预测流程:
1、使用PyMAF从图像 I I I估计SMPL mesh, M ( β , θ ) ∈ R N × 3 M(\beta,\theta)\in R^{N\times 3} M(β,θ)RN×3
2、使用PyTorch3D中可微渲染器DR,从前后两面渲染M得到SMPL-body normal N b = { N f r o n t b , N b a c k b } N^b=\{N^b_{front}, N^b_{back}\} Nb={Nfrontb,Nbackb},如式1;
3、将 N b N^b Nb与原图 I I I concat后,通过网络 G N = { G f r o n t N , G b a c k N } G^N=\{G^N_{front}, G^N_{back}\} GN={GfrontN,GbackN}得到预测clothed-body normal maps, N ^ c = { N ^ f r o n t c , N ^ b a c k c } \hat N^c=\{\hat N^c_{front}, \hat N^c_{back}\} N^c={N^frontc,N^backc},如式2;
在这里插入图片描述
4、训练 G N G^N GN的损失函数如式3,
在这里插入图片描述
其中, L p i x e l = ∣ N v c − N ^ v c ∣ , v = { f r o n t , b a c k } , L V G G L_{pixel}=|N^c_v - \hat N^c_v|,v=\{front,back\},L_{VGG} Lpixel=NvcN^vc,v={front,back},LVGG为感知损失,有助于恢复细节。
精细化SMPL
准确的SMPL body有助于生成质量更佳的clothed-body normals,但是实际中不会生成像素级对齐的SMPL fit;因此,在推理时,SMPL fit依靠SMPL-body normal maps N b N^b Nb和预测的clothed-body normal maps N c N^c Nc之间的差异进行优化,如图4;
在这里插入图片描述

SMPL的参数优化损失函数如式4、5
在这里插入图片描述
其中, L N _ d i f f L_{N_{\_diff}} LN_diff为normal map的L1损失, L S _ d i f f L_{S_{\_diff}} LS_diff为SMPL body normal-map轮廓 S b S^b Sb与人体mask S ^ c \hat S^c S^c之间L1损失。
ICON在推理时,交替进行a.使用预测的clothed-body normal N ^ c \hat N^c N^c优化SMPL mesh;b.使用精细化SMPL mesh预测 N ^ c \hat N^c N^c;

Local-feature based implicit 3D reconstruction

给定预测的clothed-body normal maps N ^ c \hat N^c N^c及SMPL-body mesh M M M,基于局部特征 F P F_P FP回归3D surface, F P F_P FP如式6,
在这里插入图片描述
其中, F s F_s Fs为point P到最近body point P b ∈ M P^b\in M PbM的有符号距离; F n b F^b_n Fnb P b P^b Pb的barycentric surface normal; F n c F^c_n Fnc为从 N ^ c = { N ^ f r o n t c , N ^ b a c k c } \hat N^c=\{\hat N^c_{front}, \hat N^c_{back}\} N^c={N^frontc,N^backc}提取的normal向量;
F P F_P FP经过隐函数 I F ( M L P 网 络 ) IF(MLP网络) IF(MLP),估计点P的occupancy o ^ ( P ) \hat o(P) o^(P),通过MSE损失训练 I F IF IF

实验

评估方式

作者使用三种评估方式:
Chamfer距离: 计算真值scan与重构mesh之间距离;这种评该评估方法捕获了较大的几何差异,但遗漏了较小的几何细节。
在这里插入图片描述
P2S距离: CAPE数据集scan包含大的空洞,为了排除孔洞影响,我们记录scan点到最近重构表面点之间距离,为Chamfer距离的单向版本;
Normal difference: 表示使用重构的及真值surface分别进行渲染normal图片,计算两者之间L2距离,用于捕获高频几何细节误差。

实验结果

实验结果如表2,
在这里插入图片描述
实验结果表明:
1、如表2-A,ICON超过所有原始SOTA方法,ICON泛化性强,;
2、如表2-B,没有SMPL-X-body引导,误差变大,使用body引导,可有效改善遮挡部位重建,如图5.
在这里插入图片描述
3、表2-C,作者评估局部特征 F P F_P FP的重要性,作者将局部特征 F P F_P FP替换为使用2D卷积提取全局特征,应用于image及clothed-body normal map及仅应用于clothed-body normal maps,结果表明在非同分布数据集CAPE-NFP上,重建表现比较差。
如图6,作者对不同方法使用不同量级数据进行训练,结果表明,ICON始终优于其他方法,同时仅使用少量数据即可达到SOTA性能,作何归因于使用局部特征,使得泛化性增强.
在这里插入图片描述
4、表2-D,SMPL-X从图像估计结果可能无法于图中身体像素点完全对齐。ICON需要对SMPL-X shape及pose不同噪声级别都比较鲁棒,ICON+BR使用噪声性能与PaMIR*使用真值性能相当。

应用

动画生成。
作者将视频帧进行3D重建,重建结果输入SCANimate,得到动画输出,如图8b。
在这里插入图片描述

结论

作者提出的ICON可以从图片鲁棒地生成3D clothed-body person,其准确性和真实性超越了现有方法。这有两个关键:
1、使用3D body model,同时迭代优化body model;
2、使用局部特征消除与全局姿态相关性;
问题:
如图7,对于宽松衣服重建效果不佳,因为body是在正交视角下训练的,无法产生透视效果,因此产生不对称的四肢或解剖学上不可能的形状。
在这里插入图片描述

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值