GraspNet-1Billion 论文阅读

该研究提出了一种大规模抓取姿态检测数据集GraspNet-1Billion,包含10亿抓取姿势,解决训练数据不足和评估标准不统一的问题。文章还介绍了端到端抓取姿态预测网络,通过点云处理实现抓取鲁棒性。实验结果证明了其在真实世界中的有效性。
摘要由CSDN通过智能技术生成

GraspNet-1Billion

CVPR2020
上海交大
论文和数据集地址:https://graspnet.net/

总体

主要解决训练数据不足和抓取姿态表示形式不同,没有统一的评估方法;仿真数据和真实场景数据存在gap

本文主要贡献是提出一个大规模数据集,一个统一的评价指标,一个端到端的物体抓取姿态预测方法

数据集

在这里插入图片描述

深度相机与机械臂固定连接,控制机械臂沿固定轨迹运动,只需要第一帧的6D位姿,后续的帧通过标定好的相机参数进行传递。

抓取姿态标注流程:
在这里插入图片描述
a. 抓取点采样
b. 抓取生成:视角、平面旋转和抓取深度采样
c. 通过物体的6D姿态投影场景中得到抓取姿态
d 碰撞检测

评价指标

Precision@k:前k个抓取的精度

网络

输入:点云
输出:抓取姿态(相对于相机坐标系)

在这里插入图片描述

pointnet++:

最远点采样算法, 点云分类

Approach Network:

输出能否抓取和预先定义的接近向量数量

Operation Network:

圆柱区域变换
旋转和宽度:分类比回归效果更好

Tolerance Network

grasp affinity fields:增加扰动还是有效的

摘要

物体抓取在许多应用中都是至关重要的,也是一个具有挑战性的计算机视觉问题。然而,对于复杂的场景,目前的研究存在训练数据不足和缺乏评估基准的问题。在这项工作中,我们提供了一个具有统一评估系统的大规模抓取姿势检测数据集。我们的数据集包含97280个RGB-D图像,超过10亿个抓取姿势。同时,我们的评估系统通过分析计算直接报告抓取是否成功,这能够评估任何种类的抓取姿势,而无需详尽地标记真值。 此外,本文还提出了一种基于点云输入的端到端抓取姿态预测网络,通过解耦的方式学习机器人的接近方向和操作参数,并设计了一种新的抓取亲和度场来提高抓取鲁棒性。实验结果表明,本文的数据集和评估系统能够很好地与真实世界的实验结果相吻合,网络的性能达到了最先进的水平。 我们的数据集、源代码和模型可在www.graspnet.net上公开获取。

相关工作

基于深度学习的抓取预测算法

抓取数据集

点云深度学习

  • 14
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值