![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
slam
文章平均质量分 75
少林达摩祖师
这个作者很懒,什么都没留下…
展开
-
论文随记|BARF : Bundle-Adjusting Neural Radiance Fields
NeRF需要准确相机标定,本文想在不完美相机标定或完全未知标定情况下重建,学习三维表示并配准相机帧,bundle-adjustment是sfm中的一种方法。nerf等重建方法对相机位姿要求严苛,最简单的想法是通过back-propagation对相机位姿也同时优化,但是在实践中发现这对初始化很敏感,而且容易收敛到次优解,降低重建质量。显然的是如果每像素的预测之间有关系(即信号是光滑的),那么。,这对预测来说是很不好的,适合重建中学习高频信号但是不适合配准中的学习,图像配准更希望平滑的信号。转载 2024-02-21 11:50:16 · 159 阅读 · 0 评论 -
辐射神经场算法——NeRF算法详解
辐射神经场算法——NeRF算法详解NeRF(Neural Radiance Fields)是2020年ECCV会议上的Best Paper,一石激起千层浪,在此之后的两三年的各大顶会上相关文章层出不穷,其影响力可见一斑,NeRF通过隐式表达的方式将新视角合成任务(Novel View Synthesis Task)推向了一个新的高度。那么,什么是“新视角合成任务”呢?什么是“隐式表达”呢?“新视角合成任务"指的是对于某一场景给定某些视角下的观测(图片),通过算法合成新视角下的观测(图片)的任务,如下转载 2024-02-21 11:53:56 · 355 阅读 · 0 评论 -
wait for imu data
max_time_min (max_time_minute单位是分钟!)小于rosbag topic时间(单位是秒)util_imu 标定时出现,除了launch和rosbag播放的topic名字一致,还要修改launch时间。原创 2024-03-21 11:04:01 · 212 阅读 · 0 评论 -
loam 算法个人总结
loam 是2014年lidar实现的 slam,经典的入门算法,kitti数据集排名始终靠前,代码开源过后来关闭了,但有人模拟出 A-loam、lego-loam论文地址: www.ri.cmu.edu/pub_files/2014/7/Ji_LidarMapping_RSS2014_v8.pdf代码:www.github.com/HKUST-Aerial-Robotics/A-LOAM。原创 2024-05-22 17:04:27 · 754 阅读 · 0 评论 -
GS-SLAM
GS-SLAM的输入是RGBD序列和相机内参,将3D场景建模为3D高斯,利用3D高斯splatting渲染RGB和Depth,计算光度损失和深度损失来优化位姿和场景,输出是相机位姿和稠密NeRF场景。运行时间、参数量、内存占用的对比,GS-SLAM不需要解码器,但是整体的运行速度不是太快,而且场景占用的内存也太大了,作者认为是用来建模稠密场景的3D高斯点太多了。删除策略是,在添加新3D高斯后,检查了当前相机视锥中所有可见的3D高斯,然后降低位置不在场景表面附近的3D高斯的不透明度,也就相当于删除了。转载 2024-02-21 11:47:59 · 203 阅读 · 0 评论 -
NICE-SLAM 代码简析
NICE-SLAM主要维护一个Feature grids全局地图,该地图包含四个层级(代码中为coarse, middle, fine, color四层,论文图中为三层),每个层级是一个三维栅格地图,每个栅格存储32维特征。渲染rgb或depth时,首先在ray上按照一定策略采样一些点,然后根据每个点的坐标找到对应Feature grids的栅格并线性插值得到每个点feature,再经过一个decoder得到该点的颜色或占据概率,最后将ray上所有采样点根据渲染公式计算出对应像素的颜色或深度。转载 2024-02-21 11:46:26 · 387 阅读 · 0 评论 -
大盘点!22项开源NeRF SLAM顶会方案整理!(上)
NeRF-SLAM的输入是连续的单目序列,利用ConvGRU(具体原理参考RAFT)估计稠密光流和光流权重,之后就是一个稠密BA问题估计位姿和深度,并将系统方程线性化为近似相机/深度箭头块状的稀疏Hseeian矩阵。单目稠密SLAM也好,直接进行单目深度估计也好,得到的深度图很多数值是不能用的,也很自然的不能用于三角化等应用。使用SLAM去为NeRF训练提供位姿是一种很容易想到的思路,这方面最经典的文章就是NeRF-SLAM,但更多的文章还是希望将位姿和NeRF放到一起优化。转载 2024-02-21 11:43:43 · 148 阅读 · 0 评论 -
大盘点!22项开源NeRF SLAM顶会方案整理!(中)
GO-SLAM的前端跟踪线程是直接用的DROID-SLAM的跟踪模块,后面训练过程也是直接调的DROID-SLAM的预训练权重,只不过加入了新的回环和BA优化。上一篇文章我们介绍了仅优化NeRF和仅优化位姿的NeRF SLAM方案,本文将介绍位姿和NeRF联合优化的相关工作,也是NeRF SLAM最主要的方向。DIM-SLAM是一个完全RGB的SLAM系统,不需要任何单目深度估计和光流预训练模型(这个还是挺亮眼的),就能同时优化场景和相机位姿,相机位姿的精度甚至超过了一些RGB-D SLAM方法。转载 2024-02-21 11:38:05 · 154 阅读 · 0 评论 -
基于神经辐射场的(NeRF-based) SLAM 综述
随着2020年NeRF[1]的横空出世,神经辐射场方法(Neural Radiance Fields)如雨后春笋般铺天盖地卷来。NeRF最初用来进行图像渲染,即给定相机视角,渲染出该视角下的图像。NeRF是建立在已有相机位姿的情况下,但在大多数的机器人应用中,相机的位姿是未知的。随后,越来越多的工作应用NeRF的技术既估计相机位姿又对环境进行重建,即NeRF-based SLAM (Simultaneously localization and mapping)。转载 2024-02-21 11:34:17 · 420 阅读 · 0 评论 -
【三维重建】3D Gaussian Splatting:实时的神经场渲染
mesh 和点是最常见的3D场景表示,因为它们是显式的,非常适合于快速的基于GPU/CUDA的栅格化。相比之下,最近的神经辐射场(NeRF)方法建立在连续场景表示的基础上,通常使用体射线行进来优化多层感知器(MLP),以实现捕获场景的新视图合成。类似地,迄今为止最有效的辐射场解决方案建立在连续表示的基础上,通过插值存储的值,例如,体素或哈希[网格或点。虽然这些方法的连续性有助于优化,但渲染所需的随机抽样是昂贵的,并可能导致噪声。转载 2024-02-21 11:30:44 · 665 阅读 · 1 评论 -
双目惯导 s-msckf 论文翻译
s-msckf转载 2023-08-11 17:49:43 · 69 阅读 · 0 评论 -
解决cmake 找不到 g2o 问题
解决:cmake_modules 在源码里有,安装g2o后,安装目录中会有 cmake_modules 文件夹,有些人但我没有,于是,我将 cmake_modules 从源码里手动拷贝到安装目录 /usr/local/g2o2016/,并且把cmake_modules 中的 findg2o.cmake 内所有 “NO_DEFAULT_PATH” 注释掉,据说不注释掉 set 不生效。源码安装了 g2o 到 /usr/local/g2o2016/解决:最后加 gomp 或 -lgomp。原创 2023-07-07 11:40:10 · 808 阅读 · 0 评论 -
2D g2o 优化
关于2D 优化一些知识总结原创 2023-07-04 17:57:20 · 108 阅读 · 0 评论 -
ros rviz Segmentation fault yaml-cpp 错误
原因:找不到 libyaml-cpp.so.0.5 库。原创 2023-05-16 15:03:55 · 200 阅读 · 0 评论 -
向量的投影_6
向量投影基础知识学习转载 2023-03-09 10:49:00 · 1550 阅读 · 0 评论