动作分析 姿态估计_大盘点|6D姿态估计算法汇总(上)

本文盘点了一系列6D姿态估计算法,包括DenseFusion、PVNet、NOCS、Pix2Pose、Deep-6DPose、Multi-Task Template Matching、Real-Time Seamless Single Shot 6D Object Pose Prediction和SSD-6D。这些方法通过不同的技术,如深度学习、像素级投票、标准化物体坐标空间等,解决RGB-D图像中的6D位姿和尺寸估计问题,尤其在处理遮挡、对称性和实时性方面取得显著成果。
摘要由CSDN通过智能技术生成

1、DenseFusion: 6D Object Pose Estimation by Iterative Dense Fusion (CVPR2019)

原文链接:https://arxiv.org/abs/1901.04780

代码链接:https://github.com/j96w/DenseFusion

主要思想:用于从RGB-D图像中估计一组已知对象的6D位姿,分别处理两个数据源,并使用一种新的dense fusion network来提取像素级的 dense feature embedding,并从中估计姿态。实验结果表明,该方法在YCB-Video和Linemod两种数据集上均优于现有的方法。论文还将所提出的方法应用到一个真实的机器人上,根据所估计的姿态来抓取和操纵物体。

本文主要有两点贡献:

1、提出了一种将RGB-D输入的颜色和深度信息融合起来的基础方法。利用嵌入空间中的2D信息来增加每个3D点的信息,并使用这个新的颜色深度空间来估计6D位姿。

2、在神经网络架构中集成了一个迭代的微调过程,消除了之前后处理ICP步骤的依赖性。

实验结果:

2、PVNet: Pixel-wise Voting Network for 6DoF Pose Estimation

论文链接:https://arxiv.org/pdf/1812.11788.pdf

代码链接:https://github.com/zju3dv/pvnet

本文提出采用Pixel-wise Voting Network (PVNet)来回归指向关键点的像素单位向量,并通过这些向量使用RANSAC对关键点位置进行投票,从而可以抗遮挡或截断。进一步地,这种表示提供了关键点位置的不确定性,PNP解算器又可以进一步利用这些不确定性。

主要贡献点:

1、提出了PVNet(pixel-wise voting network),它可以学习到一个指向2D keypoint的向量场表示,即便在遮挡和截断的情况下;作者的创新之处--能够学习到十分robust的2D keypoints。

2、基于PVNet得到的稠密预测,作者用了一种基于关键点分布的PnP算法来从2D keypoints分布求取(R,t)位姿。

实验结果:

3、Normalized Objec

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值