Recovering Non-Rigid 3D Shape from Image Streams

论文下载通道

Abstract

提出本论文主要解决的问题是: recovering 3D non-rigid shape models from image sequences \text{recovering 3D non-rigid shape models from image sequences} recovering 3D non-rigid shape models from image sequences,即从图像序列(比如视频)中恢复三维非刚性形状模型。论文提出了一种基于非刚性模型的新技术,其中每一帧的3D形状是一组 基形状(basis shape)线性组合。在该模型下,跟踪矩阵具有较高的秩,并可通过三步分解得到位姿、位形和形状。在基于视频序列构建说话者面部模型中准确率较高。

Introduction

该技术应用在谈话者视频中表现良好,可以构建出人脸(面部表情和嘴唇动作等)的模型。在Tomasi和Kanade的分解技术中,从图像序列中恢复出一个形状矩阵(shape matrix)。在正投影(orthographic projection) 下,2D的追踪矩阵秩为3,且可以通过奇异值分解(SVD) 分解为3D姿态和3D形状。但他们的技术不能用在非刚性的变形的物体上。
主要的方法都是基于 PCA \text{PCA} PCA ,如果物体变形的自由度为 K K K,则形状测量的协方差矩阵的秩为 K K K,且主要的变化可以通过 SVD \text{SVD} SVD 来恢复。
每一帧中的3D形状是 K K K个基础形状的线性组合。在当前模型下,通过使用 SVD \text{SVD} SVD,秩为 3 K 3K 3K 的2D追踪矩阵可以被分解为3D姿态、结构和3D基础形状。

Previous Work

主要介绍已有的相关技术的局限性,这些技术都不能在不进行任何初始化的情况下从单视图2D视频流估计非刚性3D形状模型。

Factorization Algorithm

key-frame basis set \text{key-frame basis set} key-frame basis set S 1 , S 2 , ⋯   , S k S_1,S_2,\cdots,S_k S1,S2,,Sk S i S_i Si 是一个描述 P P P 个点的 3 × P 3\times P 3×P 的矩阵。
the linear combination of this basis set \text{the linear combination of this basis set} the linear combination of this basis set
S = ∑ i = 1 K l i ⋅ S i S=\sum_{i=1}^{K}{l_i·S_i} S=i=1KliSi
通过正投影,构造 S S S P P P 个点被映射到 2 D 2D 2D 图像上的点 ( u i , v i ) (u_i,v_i) (ui,vi)
在这里插入图片描述
其中, R R R 是摄像头旋转矩阵 , T T T 是摄像头平移,投影的规模记录在 l 1 , ⋯   , l K l_1,\cdots,l_K l1,,lK 中。与Tomasi和Kanade相同的做法,通过减去所有2D点的平均值来消除 T T T ,之后就可以使得 S S S 位于中心的原点。
以矩阵乘积的形式重写线性组合:
在这里插入图片描述
N N N 帧中所有的2D点表示为:
在这里插入图片描述
可写成:
在这里插入图片描述

Basis Shape Factorization

W W W 矩阵的秩为 3 K 3K 3K ,可以被分解为 Q Q Q B B B 。在只考虑前 3 K 3K 3K 奇异向量和奇异值(在 U,D,V \text{U,D,V} U,D,V 中),通过 SVD \text{SVD} SVD ,可以进行分解:
在这里插入图片描述

Factoring Pose from Configuration

Adjusting Pose and Shape

Experiments

Discussion

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
(3) 参考利用下面的程序代码,完成代码注释中要求的两项任务。 import re """ 下面ref是2020年CVPR的最佳论文的pdf格式直接另存为文本文件后, 截取的参考文献前6篇的文本部分。 请利用该科研文献的这部分文本,利用正则表达式、字符串处理等方法, 编程实现对这6篇参考文献按下面的方式进行排序输出。 a.按参考文献标题排序 b.按出版年份排序 """ ref = """[1] Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas Guibas. Learning representations and generative models for 3D point clouds. In Proc. ICML, 2018 [2] Pulkit Agrawal, Joao Carreira, and Jitendra Malik. Learning to see by moving. In Proc. ICCV, 2015 [3] Peter N. Belhumeur, David J. Kriegman, and Alan L. Yuille. The bas-relief ambiguity. IJCV, 1999 [4] Christoph Bregler, Aaron Hertzmann, and Henning Biermann. Recovering non-rigid 3D shape from image streams. In Proc. CVPR, 2000 [5] Angel X. Chang, Thomas Funkhouser, Leonidas Guibas. Shapenet: An information-rich 3d model reposi-tory. arXiv preprint arXiv:1512.03012, 2015 [6] Ching-Hang Chen, Ambrish Tyagi, Amit Agrawal, Dy-lan Drover, Rohith MV, Stefan Stojanov, and James M. Rehg. Unsupervised 3d pose estimation with geometric self-supervision. In Proc. CVPR, 2019""" ref_str = re.sub(r'\[([0-9]{1})\]', r'$[\1]', ref) # 添加分隔$ print(ref_str) #脚手架代码 ref_str_2 = re.sub(r'([a-zA-Z]{2})\.', r'\1.#', ref_str) # 添加分隔# print(ref_str_2) #脚手架代码 ref_str2 = ref_str_2.replace("\n", "") ref_list = ref_str2.split("$") print(ref_list) #脚手架代码 [提示: 排序可以采用内置函数sorted(),语法如下: sorted(iterable, /, *, key=None, reverse=False), 注意掌握形式参数中带“/”和“*”的用途]
最新发布
05-26
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值