视觉SLAM论文研读【2】

Constructing Category-Specific Models for Monocular Object-SLAM

目前看的两篇论文都是基于单目视觉的,这还是让我感觉挺惊讶的。因为看了视觉slam十四讲之后,感觉单目视觉不能识别深度信息是一块无法避免的硬件硬伤。
文章讲到了最先进的单目SLAM系统主要操作操作几何基本要素,如点、线和面块,另外一部分直接操作图像,不需要昂贵的特征提取步骤。这两类操作方法存在语义信息较低的缺陷。既然讲到了这个缺点,那么就引入了能够提供更丰富语义信息的模型。

Object-SLAM可以提供对象物体的信息,丰富语义地图,其包含两类实验范式,取决于对象的特性。

1.范式1假定对象级 object-level(特定于实例的)模型是预先可用的
由于单目SLAM具有尺度模糊的特性,加上投影到图像平面上造成的信息丢失,使得这种模式对于单目目标SLAM系统来说是不可行
2. 范式2假设了一个通用模型,而不考虑对象类别
依赖对象级模型将导致需要为对象类别的所有实例拥有精确的对象模型。另一方面,泛型模型没有提供关于对象类别标签之外的对象的太多信息

结合以上两点,为了享受特定于实例的模型的表达能力,同时又保持了一般模型的简单性,文章构建了特定于类别的模型,即,对象类别被建模为一个整体。后面会提到它使用到了特征点进行关节估计来达到构建物体形状的部分。

数据集上,提到了:从渲染管道中学习的特征检测器比仅通过真实数据学习的特征检测器更精确。以后有时间值得推敲。
H. Su, C. R. Qi, Y. Li, and L. J. Guibas, “Render for cnn: Viewpoint estimation in images using cnns trained with rendered 3d model views,” in The IEEE International Conference on Computer Vision (ICCV), December 2015.

评估过程,看图:物体被一致地嵌入机器人的轨迹中,并呈现它们的3D模型。
在这里插入图片描述

项目整体框架还是十分直观的
可以看出
这个项目结合了特征点提取,以及使用YOLO算法实现目标跟踪,并将两个结果进行了结合,得到了良好的效果。
结果分析部分进行了对比,对比效果也比较好。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值