Intel Realsense深度相机实现BundleFusion

本文介绍了如何利用Intel Realsense SR300相机结合BundleFusion技术,实现实时的高精度3D模型重建。详细步骤包括配置环境、修改VoxelHashing源码以及调整BundleFusion项目设置,以适应Realsense设备。
摘要由CSDN通过智能技术生成

BundleFusion是由斯坦福大学、微软研究院和德国mpii共同开发的,可以实时构建出高精细度3D模型。
论文《BundleFusion: Real-time Globally Consistent 3D Reconstruction using Online Surface Re-integration》

平台

Win10 + VS2013 + CUDA 8.0 + Realsense SR300 + GTX 980

Realsense SR300

英特尔®实感™摄像头SR300(Intel ®RealSense ™ Camera SR300,后面简称RealSense SR300)是英特尔公司推出的第二代前置摄像头。RealSense SR300设备拥有三个镜头,分别是传统摄像头、红外摄像头和红外激光镜头。这三种镜头相互合作,通过探测挡在前面的物体所反射的红外线推断景深。

RealSense SR300和Kinect 2.0有所不同,RealSense SR300的深度捕获范围为从0.2到1.5米,而Kinect 2.0深度数据测量范围可以从0.5到4.5米。

在此之前需要配置SDK,版本是2016 R2(不要装最新版本SDK)。

Realsense SR300 + BundleFusion

(1)首先安装DirectX June 2010,并且配置好BundleFusion的环境(https://bericht.neopostmodern.com/posts/artist-guide-to-bundlefusion )。

实时全局一致的3D重建,使用动态表面重新整合技术实时,高品质,大尺寸场景的3D扫描是混合现实和机器人应用的关键。然而,可扩展性带来了姿态估计漂移的挑战,在累积模型中引入了显着的错误。方法通常需要几个小时的离线处理来全局纠正模型错误。最近的在线方法证明了令人信服的结果,但遭受以下缺点:(1)需要几分钟的时间才能执行在线修正,影响了真正的实时使用; (2)脆弱的帧到帧(或帧到模型)姿态估计导致许多跟踪失败;或(3)仅支持非结构化的基于点的表示,这限制了扫描质量和适用性。我们通过一个新颖的,实时的端对端重建框架来系统地解决这些问题。其核心是强大的姿态估计策略,通过考虑具有高效分层方法的RGB-D输入的完整历史,针对全局摄像机姿态优化每帧。我们消除了对时间跟踪的严重依赖,并且不断地将其定位到全局优化的帧。我们提出了一个可并行化的优化框架,它采用基于稀疏特征和密集几何和光度匹配的对应关系。我们的方法估计全局最优化(即,束调整的姿势)实时,支持从总跟踪故障(即重新定位)恢复的鲁棒跟踪,并实时重新估计3D模型以确保全局一致性;都在一个框架内。我们优于最先进的在线系统,质量与离线方法相同,但速度和扫描速度前所未有。我们的框架导致尽可能简单的扫描,使用方便和高质量的结果。
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值