论文学习与翻译
文章平均质量分 89
超爱吃小蛋糕的66
这个作者很懒,什么都没留下…
展开
-
ORB-SLAM3论文翻译
摘要ORB-SLAM3是第一个能够让单目、立体相机和RGB-D相机与针孔和鱼眼镜头模型解耦进行视觉、视觉+惯性和多地图SLAM的系统。第一个主要的创新是一个基于特征的紧密集成视觉+惯性SLAM系统,它完全依赖于最大后验概率(MAP)估计,甚至在IMU初始化阶段也是如此。结果表明该系统可以实时地在小场景,大场景,室内环境,室外环境等多种场景下运行,并且准确度是以前方法的2到10倍。第二个主要的创新是一个多地图系统,它依赖于一种新的位置识别方法并提高了回环的召回率。多亏了它,ORB-SLAM3能够在长时间翻译 2022-05-24 14:28:46 · 838 阅读 · 2 评论 -
AVP-SLAM算法论文翻译
文章目录1 摘要2 主要贡献3 系统概述4 实现方法A IPM图像B 特征检测C 局部地图D 回环检测E 全局优化F 定位G 停车点检测1 摘要自主泊车是自动驾驶领域的一个特殊应用。在这个任务中,汽车需要在一个狭窄的,拥挤且没有GPS信号的停车场中实现自主导航,因此准确的定位能力十分重要。传统基于纯视觉方法由于缺少纹理,以及重复的结构和场景的变化导致跟踪容易丢失。在这篇文章中,使用了鲁棒的语义特征来建立停车场的地图并在泊车时用语义信息来定位车辆。其中语义的特征包含了地面上的指路标志,停车线和减速带等,这原创 2022-05-10 11:19:26 · 799 阅读 · 0 评论 -
AVP-SLAM算法学习
文章目录1 AVP-SLAM算法流程1.1 传感器输入1.1.1 视觉传感器:由四个鱼眼相机组成的环视摄像头1.1.2 辅助传感器:IMU+轮速计1.2 建图模块1.2.1 语义特征提取1.2.2 更新全局地图1.2.3 回环检测1.3 定位模块1.4 停车位检测思考与总结1 AVP-SLAM算法流程论文提出了一个基于视觉的定位解决方案,利用强健的语义特征来辅助车辆在停车场中导航。车辆周围使用了四个摄像头。通过IPM(逆透视变换)将图像变换成鸟瞰图。然后神经网络检测语义视觉特征,包括车道、停车线、路标和原创 2022-05-09 09:19:44 · 4868 阅读 · 14 评论 -
VIBE算法(二)——算法总结
VIBE:一种通用的视频帧序列背景去除算法论文:ViBe: A universal background subtraction algorithm for video sequences作者:Olivier Barnich and Marc Van Droogenbroeck一、初始化像素空间背景模型1、选择第一帧图片初始化空间背景模型2、对于第一帧图片中的每个像素v(x))建立空间背景模型作为初始的背景模型,方法是在v(x)的8邻居像素中随机选择N次,论文中N=20;得到像素v(x)的空间背景原创 2021-07-14 17:58:47 · 763 阅读 · 0 评论 -
VIBE算法(一)——论文翻译
VIBE:一种通用的视频帧序列背景去除算法作者:Olivier Barnich and Marc Van Droogenbroeck摘要—本文介绍了一种结合了多种创新机制的运动检测技术。例如,我们提出的技术为每个像素存储一组过去在同一位置及其邻居位置的值。然后将这个集合中的像素值与当前像素值进行比较,以确定该像素是否属于背景,并通过随机选择从背景模型中替换哪些值来适应模型。这种方法不同于以往经典方法即首先替换最旧值。最后,当发现某个像素是背景的一部分时,它的值会被传播到相邻像素的背景模型中。我们详细描原创 2021-07-12 17:29:07 · 1236 阅读 · 0 评论