win10+kinect2+vs2013 bundlefusion环境搭建


利用kinect2搭建bundlefusion有几个关键步骤,选择正确的cuda版本、相机型号,修改几行代码。

环境要求

下载bundlefusion源码及依赖

  • bundlefusion源码
  • mLib
    • github下载,解压后替换掉该目录 BundleFusion-master\external\mLib
  • mLib external
    • 下载 解压后放到与bundlefusion同级的目录里

修改代码

修改cuda版本,用notepad++打开BundleFusion-master\FriedLiver\FriedLiver.vcxproj并修改如下两行题

# 第35<Import Project="$(VCTargetsPath)\BuildCustomizations\CUDA 7.0.props" />
# 将7.0,修改为我们8.0的cuda版本
<Import Project="$(VCTargetsPath)\BuildCustomizations\CUDA 8.0.props" />
# 第375<Import Project="$(VCTargetsPath)\BuildCustomizations\CUDA 7.0.targets" />
# 将7.0,修改为8.0
<Import Project="$(VCTargetsPath)\BuildCustomizations\CUDA 8.0.targets" />

接着我们需要用VS2013打开BundleFusion-master\FriedLiver\FriedLiver.sln 该工程,修改 GlobalAppState.h 文件,修改成如下的样子:

#pragma once
 
// define KINECT
#define KINECT_ONE
//#define OPEN_NI
#define BINARY_DUMP_READER
//define INTEL_SENSOR
//define REAL_SENSE
#define STRUCTURE_SENSOR
#define SENSOR_DATA_READER 

#define RUN_MULTITHREADED

然后修改为 Release版本,然后选择 生成->生成解决方法 或者使用快捷键 CTRL + SHIFT + B

  • 配置一下工程
    BundleFusion-master\FriedLiver 目录下的 zParametersBundlingDefault.txtzParametersDefault.txt拷贝到 BundleFusion-master\FriedLiver\x64/Release,然后用Notepad++打开 zParametersDefault.txt配置文件,并做如下修改:
# 修改第2行为如下,来使用KinectOne (Kinect v2)
s_sensorIdx = 2;
# 修改第49行为如下,100000视乎是配置文件中默认值
s_hashNumSDFBlocks = 100000;    //smaller voxels require more space

我们还需要对工程 FriedLiver里的目录DepthSensing中的DepthSensing.cpp做如下修改:

# 将986行
bool bGotDepth = g_CudaImageManager->process()
# 替换为
bool bGotDepth;
while (!(bGotDepth = g_CudaImageManager->process()));

运行工程

我们用电脑连接我们的Kinect v2双击运行 BundleFusion-master\FriedLiver\x64\Release\FriedLiver.exe
然后就可以看到已经可以成功运行该项目了

Alt

Referense

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
实时全局一致的3D重建,使用动态表面重新整合技术实时,高品质,大尺寸场景的3D扫描是混合现实和机器人应用的关键。然而,可扩展性带来了姿态估计漂移的挑战,在累积模型中引入了显着的错误。方法通常需要几个小时的离线处理来全局纠正模型错误。最近的在线方法证明了令人信服的结果,但遭受以下缺点:(1)需要几分钟的时间才能执行在线修正,影响了真正的实时使用; (2)脆弱的帧到帧(或帧到模型)姿态估计导致许多跟踪失败;或(3)仅支持非结构化的基于点的表示,这限制了扫描质量和适用性。我们通过一个新颖的,实时的端对端重建框架来系统地解决这些问题。其核心是强大的姿态估计策略,通过考虑具有高效分层方法的RGB-D输入的完整历史,针对全局摄像机姿态优化每帧。我们消除了对时间跟踪的严重依赖,并且不断地将其定位到全局优化的帧。我们提出了一个可并行化的优化框架,它采用基于稀疏特征和密集几何和光度匹配的对应关系。我们的方法估计全局最优化(即,束调整的姿势)实时,支持从总跟踪故障(即重新定位)恢复的鲁棒跟踪,并实时重新估计3D模型以确保全局一致性;都在一个框架内。我们优于最先进的在线系统,质量与离线方法相同,但速度和扫描速度前所未有。我们的框架导致尽可能简单的扫描,使用方便和高质量的结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值