移动端视觉SLAM学习笔记 (一) 介绍

本文介绍了一种使用普通手机实现SLAM的技术方案。由于资源限制,采用单目摄像头加IMU的方式,并计划自行开发而非移植现有解决方案。文中还讨论了PTAM这一流行方案的基本思想。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

SLAM(同步定位和制图),基础概念原理就不介绍了,网上一搜一大堆。

SLAM目前的感知方式基本就是两种: 相机和激光雷达,也有结合去做的。移动端,也就是手机和平板,一般手机和平板也就是可见光相机,一些特殊的也会搭载红外结构光、激光雷达(不得不说苹果这方面做的很棒,SLAM、3D建模在移动端这块就是行业巅峰啊)。

之前用激光雷达和realsense T265做过相关的SLAM项目,项目所限,基本就是用现成开源库跑的,没有太过深入,最近准备研究一下。预算有限(没有公司支持,自己先搞着),也为了普及性,就用了自己的小米8手机作为实验平台,主要参数:

 

 

前置摄像头是2000万,比后置高了800万,自拍的要求高啊( ̄﹏ ̄;)。但是为了测试方便,还是得用后置摄像头。

方案:

普通手机能用到的只有摄像头和IMU了,双目做不了,RGBD也没有,能做的视觉SLAM方式只有单目+IMU了。之前用RealSense T265试过ORB_SLAM3的算法,本来想做个安卓版的移植,直接挪到手机上用,但是看网上的大神们说对设备运行效率的要求很高,图像分辨率调到很低,帧率也就是一秒几帧的样子,而且效果也不佳。果断放弃移植,而且为了加深对视觉SLAM的理解,也没有项目压力,准备自己从头做,看看能做到什么程度吧。

目前流行的方案就是PTAM,也就是追踪(tracking)和建图(mapping)并行运行,大概思路就是,前端的”追踪“根据最近的几张图像进行实时计算位置,后台的”建图“持续优化地图,只在需要的时候进行同步。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值