基于RGB-D的6D目标检测算法

基于RGB-D的6D目标检测算法

本文参考了ITAIC的文章 A Review of 6D Object Pose Estimation

概览

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eQX8ke6j-1683188966051)(https://mezereon-upic.oss-cn-shanghai.aliyuncs.com/uPic/image-20230420165625575.png)]

这里介绍几篇经典的基于RGB-D的6D目标检测算法。

RGB-D,就是RGB + Depth,也就是彩色图像 + 深度信息。

直觉上来说,比单纯的RGB有了更多的信息,精度也会变得更加高了。

这里给出RGB部分方法的性能进行对比,RGB-D的指标是采用的ADD(-S), 所以我们就只看第3,4,5列的指标

image-20230420165844227

算法REDE在Linemod、Occlusion Linemod、YCB-Video数据集上基本已经超越了所有的RGB算法。

接下来,我们主要介绍三个RGB-D算法G2LNet、PVN3D以及REDE。

G2L-Net

G2L-Net: Global to Local Network for Real-time 6D Pose Estimation with Embedding Vector Features

image-20230420170325648

如上图所示,分成三个步骤:

  1. 全局的定位(Global Localization)
  2. 平移的定位(Translation Localization)
  3. 旋转的定位(Rotation Localization)
image-20230420170525035

全局的定位

具体而言,首先将RGB图像送到CNN中,得到三个东西:边界框,类别概率图(class probability map),类别向量

文章使用的是一个YOLOv3作为2D的目标检测器

利用2D的边界框架上深度信息,就可以构造出一个个棱台(frustum proposal),只考虑棱台中包含的空间点,便减少了所需要计算的数据规模。

这里文章引入了一种3D球的约束,将点云变得更加紧致

最终输出一系列的点云,对应2D目标检测的结果

平移的定位

利用3D的点云信息,做语义分割,得到分割后的点云,即每一个空间点有自己的类别

旋转的定位

这里将类别向量引入,以点云信息作为输入,直接输出对应的旋转

PVN3D

PVN3D: A Deep Point-Wise 3D Keypoints V oting Network for 6DoF Pose Estimation

image-20230504145640350

个人认为其主要的贡献在于结合了语义分割的技术

如上图所示,整个PVN3D可以被分成多个部分:

  • 特征抽取
  • 3D关键点检测
  • 语义分割
  • 6DoF姿态估计

特征抽取

这里使用一个卷积网络CNN和一个PointNet++分别提取RGB特征以及深度特征,然后进行特征融合。

3D关键点检测、语义分割

使用MLP来分别估计关键点的平移、中心点以及每一个点的语义类别标签

可以看到,其输出的维度分别对应3、22、3,即3个平移的偏移值,22个类别,以及3个中心点偏移值。

然后使用语义标签和中心点,使用投票Vote和聚类Cluster,得到一个实例级别的语义分割

然后将这个结果结合关键点检测,就能给这些关键点分配对应的实体

6DoF姿态估计

使用最小二乘(Least-Square Fitting)实现姿态估计,输出旋转矩阵R以及平移t

REDE

REDE: End-to-End Object 6D Pose Robust Estimation Using Differentiable Outliers Elimination

我们先来看看该方法和其他方法的区别

image-20230504152511962

如上图所示,©是基于关键点回归的方法,(d)是REDE方法

可以看到,用CNN去做关键点的检测这一步,大家都是一样的,只不过在后面对姿态进行估计时,REDE是可差分的,能够直接反向传播到前面所有的可学习的参数上。

回想一下上面的PVN3D,在计算关键点之后,便使用最小二乘去估计姿态,估计的偏差并不会影响前面的参数,所以仍然属于©。

下面给出其方法的概览

image-20230504152912451

从左到右:

  • 首先使用点级别的编码
    • 类似PVN3D,这里也是分别进行编码,用PSPNet抽取RGB特征,用PointNet抽取深度图信息
    • 最后将RGB特征和深度特征融合在一起,具体实现可以参考其仓库中的 lib/network.py
  • 然后使用快速点采样 (Fast Point Sample,FPS) 得到K个关键点,用网络估计这些关键点的偏移,计算L1误差
  • 这里引入一个异常偏移消除 (Outlier Offsets Elimination) 技术,对于每一个点的偏移估计,多计算一个置信度c,在计算关键点位置的时候,乘以这个置信度
  • 使用一个Minimal Solvers Bank,对每三个关键点求姿态估计,这样就可以生成 C K 3 C_K^3 CK3 个姿态,提高整体的鲁棒性
  • 最后,对 C K 3 C_K^3 CK3 个姿态,加权平均,通过2范数和F范数计算偏移和旋转的误差,实现可微分的误差计算
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值