AR/VR
文章平均质量分 65
刘二毛
不快乐是因为可以像只猪一样懒,却无法像只猪一样懒得心安理得
展开
-
VINS(一)简介与代码结构 视觉slam
VINS(一)简介与代码结构VINS-Mono和VINS-Mobile是香港科技大学沈劭劼团队开源的单目视觉惯导SLAM方案。是基于优化和滑动窗口的VIO,使用IMU预积分构建紧耦合框架。并且具备自动初始化,在线外参标定,重定位,闭环检测,以及全局位姿图优化功能。方案最大的贡献是构建了效果很好的融合算法,视觉闭环等模块倒是使用了较为常见的算法。系列博客将结合课题组发表的paper,转载 2017-07-03 09:22:17 · 13555 阅读 · 2 评论 -
VINS(二) slamFeature Detection and Tracking
VINS(二)Feature Detection and Tracking系统入口是feature_tracker_node.cpp文件中的main函数1. 首先创建feature_tracker节点,从配置文件中读取信息(parameters.cpp),包括:ROS中发布订阅的话题名称;图像尺寸;特征跟踪参数;是否需要加上鱼眼mask来去除边缘噪点;%YAML转载 2017-07-03 10:13:19 · 1835 阅读 · 0 评论 -
VINS(三)初始化与相机IMU外参标定
VINS(四)初始化与相机IMU外参标定 和单目纯视觉的初始化只需要获取R,t和feature的深度不同,VIO的初始化话通常需要标定出所有的关键参数,包括速度,重力方向,feature深度,以及相机IMU外参Rbc和pbc。一. 外参旋转矩阵初始化在Feature Detection and Tracking模块中,利用Harris特征点匹配通过基础矩阵和Ra转载 2017-07-13 09:38:53 · 7751 阅读 · 1 评论 -
视觉slam学习笔记
写在最前面: SLAM特指:特指搭载传感器的主体,在没有环境先验的信息情况下,在运动过程中建立环境模型,通过估计自己的运动。 SLAM的目的是解决两个问题:1、定位 2、地图构建 也就是说,要一边估计出传感器自身的位置,一边要建立周围环境的模型 最终的目标:实时地,在没有先验知识的情况下进行定位和地图重建。 当相机作为传感器的时候,我们要做的就是根据一张张连续运动的图像,从转载 2017-06-27 18:15:16 · 3492 阅读 · 1 评论 -
安装 ROS Qt Creator Plugin's 错误记录
我是按照http://blog.csdn.net/u013453604/article/details/52186375#reply这篇博客安装的,我装的是qt5.90,里面的qt-creator是4。3的版本但还是提示 Depends: qt57creator (>= 4.2.1) but it is not going to be installedsudo apt-ge原创 2017-06-27 10:39:12 · 1994 阅读 · 0 评论 -
ORB-SLAM2:基于可识别特征的自主导航与地图构建
目录(?)[+]ORB-SLAM2 基于可识别特征的自主导航与地图构建简介地图A 地图特征点或3D ORBB 关键帧C 可视化图像位置识别A 图像识别数据库 B 高效优化的ORB匹配C 视觉一致性自主导航追踪A ORB特征获取 B 追踪之前的图像帧C 重定位从划除帧中再追踪D 追踪本地地图E 最终的位姿优化F 新的关键帧的取舍转载 2017-06-15 09:06:31 · 2582 阅读 · 0 评论 -
VINS(四)estimator_node 数据对齐 imu预积分 vision
首先通过vins_estimator mode监听几个Topic(频率2000Hz),将imu数据,feature数据,raw_image数据(用于回环检测)通过各自的回调函数封装起来ros::Subscriber sub_imu = n.subscribe(IMU_TOPIC, 2000, imu_callback, ros::TransportHints().tcpNoDelay())转载 2017-07-17 09:24:22 · 2203 阅读 · 0 评论 -
SLAM学习资料汇总-超全
SLAM 学习与开发经验分享导语毫无疑问,SLAM是当前最酷炫的技术.在这里,我给大家分享一些在学习SLAM的过程中的一些资料与方法(不断更新中...)AR开发者社区:目录入门基础进阶优秀文章技术博客网站与研究组织书籍与资料SLAM 方案优秀案例入门视觉SLAM的基础知识-高翔(转载 2017-07-20 15:49:36 · 5563 阅读 · 2 评论 -
VINS ---初始化
通过匹配的视觉特征点 对极约束获取本质矩阵E,再分解本质矩阵获得相机的R,Tbool MotionEstimator::solveRelativeRT(const vector> &corres, Matrix3d &Rotation, Vector3d &Translation){ if (corres.size() >= 15) { vector ll,原创 2017-07-21 11:17:09 · 1055 阅读 · 0 评论