kinectfusion解析_KinectFusion 论文解析

本文详细解析KinectFusion算法,包括RGB-D重建、相机跟踪、深度数据融合和光线投影过程。该算法首次实现实时稠密三维重建,通过帧对模型的配准提高位姿计算准确性,利用TSDF模型消除噪声并填补孔洞,适用于移动设备的实时场景重建。
摘要由CSDN通过智能技术生成

地位和特点

1、RGB-D 重建的开山之作,首次实现实时稠密的三维重建

2、通过融合序列图像重建三维重建,如果显卡满足要求重建的帧率可以跟得上 Kinect 相机的帧率(30Hz)。

3、通过当前帧和模型投影获取的图像之间计算位姿,相当于通过当前帧和上一帧之间计算位姿要更加准确。

重建流程图

重建流程如上图所示:

a) 读入的深度图像转换为三维点云并且计算每一点的法向量;

b) 计算得到的带有法向量的点云和上一帧光线投影算法得到的点云配准用 ICP 算法计算位姿;

c) 根据计算得到的位姿,将当前帧的点云融合到网格模型中去;

d) 光线投影算法计算当前视角下的点云,并且计算其法向量用来对下一帧输入图像配准。

如此是个循环的过程,通过移动相机获取场景不同视角下的点云,重建完整的场景表面。

Depth Map Conversion (深度数据转化)

在已知相机内参情况下,将 Kinect 获取到的深度图像转换成点云。

根据相邻像素点求得每个点的法向量。

转换之后的带有法向量的点云如 a) 图所示

Camera Tracking (相机跟踪)

采用 ICP 算法计算两帧之间位姿,因为这里是实时的三维重建,相邻两帧之间位姿变化很小,R 矩阵可以做线性化,加速求解效率,关于KinectFusion 中的 ICP 算法和 GPU 实现后续的博客会给介绍。

KinectFusion 算法采用 frame-to-model 的形式而不是采用 frame-to-frame 的形式计算两帧位

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值