SLAM
文章平均质量分 93
W_Tortoise
专注,低调,精进。
展开
-
R2LIVE安装与测试
文章目录R2LIVE安装依赖Ubuntu和ROSCeres Solverlivox_ros_driver编译R2LIVE运行示例R2LIVER2LIVE 是一个强大的、实时的、紧密耦合的多传感器融合框架,它融合了来自 LiDAR、惯性传感器、视觉相机的测量结果,以实现稳健、准确的状态估计。利用所有单个传感器的测量结果,我们的算法对各种视觉故障、LiDAR 退化场景具有足够的鲁棒性,并且能够在机载计算平台上实时运行,如在室内、室外进行的大量实验所示,以及不同规模的混合环境。系统架构:建图效果:相原创 2021-06-23 13:43:21 · 5050 阅读 · 28 评论 -
LVI-SAM安装与测试
1 介绍就在昨天,LVI-SAM开源了,它是一个lidar-visual-inertial里程计和建图系统,在系统级别结合了LIO-SAM和Vins-Mono的优势。作者之前还开源了LeGO-LOAM和LIO-SAM,膜拜并致敬。Github:https://github.com/TixiaoShan/LVI-SAM论文:https://arxiv.org/abs/2104.10831Demo:PS:上传这个gif真不容易,原始文件大小为12.5MB,经过一系列的裁剪,缩放,压缩操作,变成4.7原创 2021-04-23 13:45:24 · 14137 阅读 · 58 评论 -
使用小觅相机录制数据集
文章目录1 目的2 方法2.1 SDK2.2 ROS bag2.2.1 录制bag2.2.2 从bag文件中提取数据2.2.2.1 提取图像2.2.2.2 提取IMU数据3 相关核心代码3.1 record.cc3.2 dataset.h3.3 dataset.cc4 参考1 目的在不同场景录制不同条件的数据集,主要是为了方便进行系统的测试,相当于一个benchmark,给不同的算法提供一个相同的测试环境。2 方法2.1 SDK首先,安装好小觅相机的SDK。然后,使用SDK中提供的样例程序,录制原创 2020-08-06 14:31:27 · 2263 阅读 · 13 评论 -
激光雷达数学模型和运动畸变去除
文章目录1 概念介绍1.1 激光雷达传感器1.2 激光雷达数学模型1.3 运动畸变2 畸变去除2.1 纯估计方法2.2 里程计辅助方法2.3 融合方法3 实现一个激光雷达运动畸变去除模块3.1 自定义激光雷达消息3.2 编译激光雷达运动畸变去除包3.3 播放bag3.4 效果3.5 代码解析3.5.1 头文件3.5.2 主函数3.5.3 定义LidarMotionCalibrator类3.5.4 构造函数LidarMotionCalibrator3.5.5 回调函数ScanCallBack3.5.6 获取机原创 2020-08-04 11:07:37 · 3881 阅读 · 11 评论 -
基于Cartographer的3D SLAM(Lidar+IMU)
1 系统要求虽然 Cartographer 可以在其他系统上运行,但已确认可以在满足以下要求的系统上运行:64-bit, modern CPU (e.g. 3rd generation i7)16 GB RAMUbuntu 14.04 (Trusty) and 16.04 (Xenial)gcc version 4.8.4 and 5.4.0目前支持以下ROS发行版:Indig...原创 2020-03-28 13:51:35 · 8518 阅读 · 8 评论 -
VSLAM(VINS)+EKF+MPC=停车场无限循环
1 背景很奇妙,从一个群里看到一个人的朋友圈,搞定了【VSLAM(VINS)+EKF+MPC=停车场无限循环】,挺感兴趣的,在这里简单分析一下。视频截图:2 分析2.1 VSLAM根据经验,电脑屏幕上显示的是rviz,VSLAM具体是VINS,但不确定是VINS-mono,还是VINS-fusion,也不确定是单目+IMU,还是双目+IMU。问题:VINS是用的在线的定位模式还是...原创 2020-03-28 09:51:20 · 1260 阅读 · 0 评论 -
robot_localization(3):配置
将传感器数据合并到robot_localization的任何状态估计节点的位置估计中时,重要的是要提取尽可能多的信息。本教程详细介绍了传感器集成的最佳实践。有关更多信息,建议用户观看ROSCon 2015的演示文稿。1 传感器配置即使所讨论的消息类型在配置向量中不包含某些变量(例如,虽然<<MsgLink(geometry_msgs/TwistWithCovarianceStam...翻译 2019-12-02 13:21:13 · 4678 阅读 · 7 评论 -
robot_localization(2):准备数据
在使用robot_localization中的状态估计节点开始之前,用户必须确保其传感器数据格式正确,这一点很重要。每种类型的传感器数据都有各种注意事项,建议用户在尝试使用robot_localization之前完整阅读本教程。有关更多信息,建议用户观看ROSCon 2015的演示文稿。1 遵守ROS标准要考虑的两个最重要的ROS REP是:REP-103(标准计量单位和坐标约定)RE...翻译 2019-12-02 12:30:56 · 2974 阅读 · 2 评论 -
robot_localization(1):介绍,安装和状态估计节点
1 robot_localizationrobot_localization是状态估计节点的集合,每个节点都是非线性状态估计器的一种实现,用于在3D空间中移动的机器人。它包括两个状态估计节点ekf_localization_node和ukf_localization_node。另外,robot_localization提供navsat_transform_node,它有助于集成GPS数据。Gi...翻译 2019-12-02 12:23:25 · 18103 阅读 · 6 评论 -
LaMa:一个定位和建图库
1 总览LaMa是由葡萄牙阿威罗大学的智能机器人与系统(IRIS)实验室开发的用于机器人定位和制图的C++ 11软件库。它包括一个用于3D体积网格(用于建图)的框架,一个基于扫描匹配的定位算法和两个SLAM解决方案(一个在线SLAM和一个粒子滤波SLAM)。主要特点是效率。只要有可能,就使计算量少,内存使用量少。运行我们的定位和SLAM解决方案的最小可行计算机是Raspberry Pi 3 M...原创 2019-11-01 16:43:56 · 2272 阅读 · 0 评论 -
OpenARK:UC Berkeley 开源可穿戴增强现实系统(C++)
1 OpenARKOpenARK是于2016年在加州大学伯克利分校创建的开源可穿戴式增强现实(AR)系统。基于C ++的软件提供了创新的核心功能,可为各种现成的AR组件提供动力,包括透视眼镜,深度摄像头和IMU。开源平台包括高级模块,以帮助人机交互,例如3D手势识别,平面检测,avatar/姿势跟踪和多用户协作,还包含基本工具,例如基于AR的相机校准,深度到立体,SLAM等。当前,它同时支持P...原创 2019-11-01 15:30:16 · 869 阅读 · 1 评论 -
LeGO-LOAM初探:原理,安装和测试
前言最近要搞3D激光SLAM,先后测试了Autoware,cartographer,loam和LeGO-LOAM。今天就带来LeGO-LOAM的使用体验。Github:https://github.com/RobustFieldAutonomyLab/LeGO-LOAM论文:https://github.com/RobustFieldAutonomyLab/LeGO-LOAM/blob/m...原创 2019-01-17 20:38:09 · 46222 阅读 · 87 评论 -
Graph-based SLAM的Cartographer系统的实现与分析
1 背景简介Cartographer是一个Google于2016年开源的项目,它是一种在多平台和传感器配置下,提供2D和3D实时同时定位与建图(SLAM)的系统。 论文《Real-Time Loop Closure in 2D LIDAR SLAM》对Cartographer对系统进行了详细的阐述。2 系统概述2.1 系统总览Cartographer主要理论是通过闭环检测...原创 2018-04-10 20:21:51 · 3370 阅读 · 2 评论 -
ORB-SLAM2的安装与运行
0 背景简介ORB-SLAM是西班牙Zaragoza大学的Raul Mur-Artal编写的视觉SLAM系统。他的论文“ORB-SLAM: a versatile andaccurate monocular SLAM system”发表在2015年的IEEE Trans. on Robotics上。开源代码包括前期的ORB-SLAM和后期的ORB-SLAM2。第一个版本主要用于单目SLAM,而...原创 2018-04-10 14:46:32 · 50717 阅读 · 45 评论 -
Eigen学习总结
前言最早接触Eigen,是在高翔博士编著的《视觉SLAM十四讲》中。原创 2019-05-28 15:13:57 · 2434 阅读 · 1 评论 -
视觉SLAM中的李群与李代数
写在前面首先声明,这篇博客只是高博的《视觉SLAM十四讲》的学习笔记,稍加一些自己的领悟和思考。如果想系统和详细的学习李群与李代数,强烈建议移步。为什么要使用李群和李代数三维世界中刚体运动的描述方式,包括旋转矩阵、旋转向量、欧拉角、四元数等若干种方式。在SLAM 中,除了旋转表示之外,还要对它们进行估计和优化。因为在SLAM 中位姿是未知的,而我们需要解决什么样的相机位姿最符合当前观测数据这...原创 2019-06-12 15:40:44 · 966 阅读 · 1 评论 -
坐标变换
设有小萝卜1号和小萝卜2号位于世界坐标系中。记世界坐标系为W,小萝卜们的坐标系为R1R_1R1和R2R_2R2。小萝卜1号的位姿为q1=[0.35,0.2,0.3,0.1]Tq_1=[0.35,0.2,0.3,0.1]^Tq1=[0.35,0.2,0.3,0.1]T(qqq的第一项为实部),t1=[0.3,0.1,0.1]Tt_1=[0.3,0.1,0.1]^Tt1=[0.3,0.1,0....原创 2019-08-06 15:08:08 · 577 阅读 · 0 评论 -
XIVO:X惯性辅助视觉里程计和稀疏建图
XIVO在存储数据(此处来自RealSense D435i传感器)或实时流上以140FPS运行,延迟大约为1-7ms,具体取决于硬件。它从已标定地相机输入视频帧和从IMU进行惯性测量,并输出具有属性特征和相机6自由度位姿的稀疏点云。它执行相机和IMU之间相对姿势的自动校准以及时间戳对齐。此处提供了更多演示,这篇论文介绍了该方法。XIVO不执行事后细化(集束调整,位姿图优化),但可以轻松添加为后处...原创 2019-09-19 09:28:38 · 1637 阅读 · 0 评论 -
《视觉SLAM进阶:从零开始手写VIO》第一讲作业
目录1 视觉与IMU融合之后有何优势?2 有哪些常见的视觉+IMU融合方案?有没有工业界应用的例子?3 在学术界,VIO研究有哪些新进展?有没有将学习方法应用到VIO的例子?4 四元数和李代数更新5 求导参考1 视觉与IMU融合之后有何优势?要说视觉与IMU融合之后有何优势,首先要明白视觉与IMU各自的局限:(1)IMU虽然可以测得加速度和角速度,但这些量都存在明显的漂移,使得积分两次得到的...原创 2019-10-08 20:17:59 · 5160 阅读 · 2 评论 -
《视觉SLAM进阶:从零开始手写VIO》第二讲作业
目录1 安装im_utils1.1 安装1.2 可能出现的Error1.3 运行1.4 参考资料2 编译vio_data_simulation-master3 编译vio_data_simulation-ros_version3.1 编译3.2 生成imu.bag3.3 使用imu_utils标定IMU的白噪声和零偏不稳定性4 总结1 安装im_utils这个工具之前就使用过了,还写了博客,没...原创 2019-10-10 18:14:04 · 5247 阅读 · 5 评论 -
SLAM之图像特征提取与匹配
0 写在前面此篇博客,包括之后的一些SLAM系列博客,其实都是高翔博士的《视觉SLAM十四讲》读书笔记,在此向高博所做的工作致敬。对SLAM初学者而言,《视觉SLAM十四讲》非常适合入门,而且高博在深蓝学院开设了《SLAM理论与实践》课程,以视频+作业+答疑的模式,如果能够坚持下来,把每次作业和最后的大作业都完成,就可以说入门了。1 实验背景视觉SLAM主要分为视觉前端和优化后端。...原创 2018-04-10 22:01:23 · 9537 阅读 · 3 评论 -
SLAM之相机标定
0 写在前面此篇博客,包括之后的一些SLAM系列博客,其实都是高翔博士的《视觉SLAM十四讲》读书笔记,在此向高博所做的工作致敬。对SLAM初学者而言,《视觉SLAM十四讲》非常适合入门,而且高博在深蓝学院开设了《SLAM理论与实践》课程,以视频+作业+答疑的模式,如果能够坚持下来,把每次作业和最后的大作业都完成,就可以说入门了。1 实验背景相机将三维世界中的坐标点(单位为米)映射...原创 2018-04-11 18:59:34 · 18803 阅读 · 16 评论 -
双目DSO
论文Stereo DSO: Large-Scale Direct Sparse Visual Odometry with Stereo Cameras代码官方未开源。地平线智能驾驶团队的工作:https://github.com/HorizonAD/stereo_dso相关资料DSO:https://zhuanlan.zhihu.com/p/29177540双目DSO:https:/...原创 2018-10-24 15:53:19 · 4454 阅读 · 6 评论 -
使用小觅双目-惯性相机运行VINS-Mono
如果你想用MYNT EYE相机运行VINS-Mono,请按照以下步骤操作:Install MYNT-EYE-VINS-Samplemkdir -p ~/catkin_ws/srccd ~/catkin_ws/srcgit clone -b sdk2 https://github.com/slightech/MYNT-EYE-VINS-Sample.gitcd ..catkin_make...原创 2018-10-23 22:05:40 · 6177 阅读 · 8 评论 -
使用 MYNTEYE 运行 OKVIS
安装 MYNTEYE OKVIS安装依赖CMakesudo apt-get install cmakegoogle-glog + gflagssudo apt-get install libgoogle-glog-devBLAS &amp;amp; LAPACKsudo apt-get install libatlas-base-devEigen3sudo apt-...原创 2018-11-16 13:44:58 · 1470 阅读 · 0 评论 -
在NVIDIA Jetson TX2上安装Autoware,并实车测试激光SLAM建图
前言Autoware是世界上第一款用于自动驾驶汽车的“一体化”开源软件,主要适用于城市,但也可以涵盖公路,高速公路等。Autoware的代码库受BSD许可证保护。请自行决定使用它。为了安全使用,Autoware为那些没有真正自动驾驶汽车的人提供基于ROSBAG的仿真环境。如果计划将Autoware与真实的自动驾驶汽车一起使用,请在现场测试前制定安全措施和风险评估。Autoware是什么?...原创 2019-01-15 23:23:01 · 10624 阅读 · 25 评论 -
ubuntu14.04配置PL-SLAM并运行
前言在视觉SLAM中,前端一般分为特征点法和直接法。 在弱纹理环境中,可靠点特征的缺乏会降低系统的性能,针对该问题,陆续有学者提出联合点、线特征的视觉SLAM系统,从而更加稳定地应用于点特征缺乏或分布不均的场景。 论文《PL-SLAM: a Stereo SLAM System through the Combination of Points and Line Segments》便是一项...原创 2018-05-24 23:16:49 · 3952 阅读 · 55 评论 -
安装RTAB-MAP,并用RealSense R200运行
前言RTAB-MAP(Real-Time Appearance-Based Mapping)是RGB-D SLAM中比较经典的一个方案。它实现了RGB-D SLAM中所有应该有的东西:基于特征的视觉里程计、基于词袋的回环检测、后端的位姿图优化,以及点云和三角网格地图。因此,RTAB-MAP给出了一套完整的(但有些庞大的)RGB-D SLAM方案。目前我们可以直接从ROS中获得其二进制程序,此外...原创 2018-08-09 16:26:45 · 4984 阅读 · 8 评论 -
在Ubuntu14.04和ROS indigo环境下用Kinect2跑RGB-D SLAM
前言历经波折,终于用Kinect2跑通了RGB-D SLAM。 起初,在笔记本电脑上装不上iai_kinect2驱动,因为在/usr/lib/x86_64-linux-gnu下缺少很多关于liopencv的文件,不确定是ROS没装好还是OpenCV没装好,台式机装的OpenCV 3,也有其他问题,最后我把台式机/usr/lib/x86_64-linux-gnu下的所有文件都拷贝到笔记本电脑...原创 2018-07-22 05:55:42 · 2978 阅读 · 6 评论 -
DSO
相关资料论文:https://arxiv.org/abs/1607.02565 Github:https://github.com/JakobEngel/dso 详解:https://zhuanlan.zhihu.com/p/29177540安装git clone https://github.com/JakobEngel/dso.gitInstall suitespa...原创 2018-07-28 23:29:45 · 2061 阅读 · 13 评论 -
在TX2上安装VIINS-Mono——问题总结
我们一般通过以下命令安装Eigen:sudo apt-get install libeigen3-dev默认安装在/usr/include/eigen3。在CMakeList.txt中一般用以下语句找到Eigen:find_package(Eigen REQUIRED)如果有时找不到,可以替换成:include_directories(/usr/include/eigen3)在...原创 2018-10-25 18:10:34 · 7358 阅读 · 11 评论 -
安装并运行VINS-Mono
依赖1.Ubuntu and ROS官方要求是Ubuntu 16.04,ROS Kinetic,我的环境是Ubuntu 14.04, ROS Indigo。经测试,可以正常运行。sudo apt-get install ros-indigo-cv-bridge ros-indigo-tf ros-indigo-message-filters ros-indigo-image-transpor...原创 2018-10-23 22:02:15 · 20671 阅读 · 32 评论 -
通过ROS,用Kinect2跑ORB-SLAM2
前言步骤安装ORB-SLAM2参考:https://blog.csdn.net/learning_tortosie/article/details/79881165 因为要使用ROS,所以要进行到编译ROS下的ORB-SLAM2。安装Kinect2驱动参考:https://blog.csdn.net/learning_tortosie/article/details/81...原创 2018-07-22 21:22:27 · 5855 阅读 · 6 评论 -
maplab(1):安装
前言安装参考:https://github.com/ethz-asl/maplab/wiki/Installation-Ubuntu。安装所需的系统包安装ROS如果已经安装ROS,执行以下命令即可。sudo apt install ros-indigo-tf2-* ros-indigo-camera-info-manager* 如果没有安装ROS,则根据自己的系统...原创 2018-08-04 00:34:05 · 3031 阅读 · 16 评论 -
maplab(2):ROVIOLI简介
写在前面由于本人翻译能力有限,无法全部还原英语本意,故最好到这里阅读原文。简介 ROVIOLI - RObust Visual Inertial Odometry with Localization Integration, 是maplab的一个包含估计器的视觉-惯性建图前端,它是对现有的估计pipeline ROVIO和其他maplab模块的改进,用于二进制特征提取和跟踪,地图构...原创 2018-08-05 19:21:52 · 2188 阅读 · 0 评论 -
maplab(3):在VIO模式下运行ROVIOLI
要求要运行ROVIOLI,需要以下标定文件:Camera calibration, example file for the Euroc datasetsIMU parameters maplab, example file for the Euroc datasetsIMU parameters Rovio, example file for the Euroc datasets...原创 2018-08-05 19:22:39 · 1403 阅读 · 4 评论 -
maplab(4):在定位模式下运行ROVIOLI
在本教程中,我们将在定位模式下运行ROVIOLI。 这可以极大地提高估计精度并减少估计轨迹的漂移。要求与VIO一样,您需要为传感器设置获取三个校准文件(camera,IMU maplab和IMU rovio)。 此外,您还需要:用于定位的 VI(视觉-惯性)地图。 这个地图要应用优化和闭环检测得以在 ROVIOLI 中获得更好的结果。要运行的数据集。 或者,可以使用实时源。...原创 2018-08-06 14:49:40 · 1014 阅读 · 4 评论 -
Depth-VO-Feat
Unsupervised Learning of Monocular Depth Estimation and Visual Odometry with Deep Feature Reconstruction要求此代码使用 Caffe 在 Python 2.7,CUDA 8.0 和 Ubuntu 14.04 上进行了测试。 Caffe:将./caffe中所需的 layers 添加到您...原创 2018-09-20 17:15:33 · 1109 阅读 · 0 评论 -
在TX2上配置ORB-SLAM2错误总结
/usr/lib/gcc/aarch64-linux-gnu/5/…/…/…/aarch64-linux-gnu/libGL.so: undefined reference to `drmFreeDevice’cd /usr/lib/aarch64-linux-gnusudo cp tegra/libEGL.so libEGL.sosudo cp tegra-egl/libEGL.so ...原创 2018-09-29 18:47:28 · 1685 阅读 · 3 评论 -
ORB-SLAM2运行数据集时Pangolin界面卡住,不能生成轨迹以及用摄像头运行非ROS版程序时如何退出的方法
问题1最近用ORB-SLAM2运行KITTI数据集,最后Pangolin和ORB-SLAM2:Current Frame窗口卡住,无法保存轨迹文件。看代码发现是SLAM.Shoutdown()的问题。方法一:如果想得到轨迹文件,将SLAM.Shoutdown()移到SALM.SaveTrajectoryKITTI(CameraTrajectory.txt)后面即可,但是还要在终端输入ctr...原创 2018-10-11 17:54:17 · 4452 阅读 · 3 评论