机器人抓取领域相关数据集

点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达

前言

针对机器人抓取中的检测、分割、姿态识别、抓取点检测、路径规划等任务,总结了对应的数据集,在这里分享下,数据格式为类别+数量。

一、检测任务

PASCAL VOC:20类,11540

SUN:908类,131,072

MS COCO:91类,328,000

Places:434类,10 millions

Open Images:6000类,9 millions 

二、分割任务

PASCAL VOC 2012 Segmentation:21类,2913

PASCAL-Context:540类,19,740

PASCAL-Part:20类,19,740

SBD:21类,11,355

MS COCO:80类,204,721

DAVIS:4类,8422

三、姿态识别任务

LineMod:15类,1100+ frame video sequences

T-LESS:30类,49K images

PU-APC:24类,10000 images

YCB-Video:21类,92 RGB-D videos

四、抓取点检测

Standford Grasping:10 object,13747 RGB Images,13747 Depth Images

Cornell Grasping:240 object,885 RGB Images,885 Depth Images

YCB Benchmarks:77 object,46200 RGB Images,46200 Depth Images

CMU dataset:150+object,50567 RGB Images

Google dataset:800000 RGB Images

Dex-Net 1.0:150+object,50567 RGB Images

Dex-Net 2.0:150+object,50567 RGB Images

JACQUARD:11619object,54485 RGB Images,108970Depth Images

五、抓取路径规划

抓取路径规划数据集:

1、Supersizingself-supervision: Learning to grasp from 50k tries and 700 robot hours.

2、Learning hand-eyecoordination for robotic grasping with deep learning and large-scale datacollection.

3、Multimodal grasp dataset: A novel visual–tactile data set for robotic manipulation.

抓取仿真:

1、Graspit! a versatile simulator for robotic grasping.

2、Opengrasp: A toolkit for robot grasping simulation.

3、Deep reinforcement learning for vision-based robotic grasping: Asimulated comparative evaluation of offpolicy methods.

上述内容,如有侵犯版权,请联系作者,会自行删文。

重磅!3DCVer-学术交流群已成立

欢迎加入我们公众号读者群一起和同行交流,目前有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别等微信群,请扫描下面微信号加群,备注:”研究方向+学校/公司+昵称“,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。原创投稿也请联系。

▲长按加群或投稿

▲长按关注我们

  • 9
    点赞
  • 90
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论
以下是一个简单的Grasp算法的代码示例,用于处理一个二维物体的抓取问题: ```python import numpy as np # 定义物体的形状和质心 object_shape = np.array([[0, 0], [0, 1], [1, 1], [1, 0]]) object_centroid = np.array([0.5, 0.5]) # 定义机械手的夹爪宽度 gripper_width = 0.2 # 定义抓取点的数量和分辨率 num_grasp_points = 10 grasp_resolution = 0.01 # 初始化抓取点集合 grasp_points = np.zeros((num_grasp_points, 2)) # 随机生成抓取点 for i in range(num_grasp_points): # 随机生成抓取点的位置 grasp_point = np.random.uniform(-1, 1, 2) # 将抓取点移动到物体质心 grasp_point = grasp_point - np.mean(object_shape, axis=0) # 将抓取点旋转到水平方向 angle = np.arctan2(grasp_point[1], grasp_point[0]) rotation_matrix = np.array([[np.cos(angle), -np.sin(angle)], [np.sin(angle), np.cos(angle)]]) grasp_point = np.dot(grasp_point, rotation_matrix) # 将抓取点移动到合适的位置 grasp_point[0] = np.clip(grasp_point[0], gripper_width / 2, object_shape[:, 0].max() - gripper_width / 2) grasp_point[1] = np.clip(grasp_point[1], -grasp_resolution / 2, grasp_resolution / 2) grasp_point = grasp_point + object_centroid grasp_points[i] = grasp_point # 计算抓取点的质心 grasp_points_centroid = np.mean(grasp_points, axis=0) # 将抓取点按照到物体质心的距离排序 grasp_points_distance = np.linalg.norm(grasp_points - grasp_points_centroid, axis=1) sorted_indices = np.argsort(grasp_points_distance) sorted_grasp_points = grasp_points[sorted_indices] # 输出最优的抓取点 print("最优的抓取点为:", sorted_grasp_points[0]) ``` 上述代码中,我们首先定义了物体的形状和质心,以及机械手的夹爪宽度和抓取点的数量和分辨率。然后,我们通过随机生成抓取点的位置,并对其进行一系列的变换和筛选,最终得到了一个抓取点的集合。最后,我们根据抓取点到物体质心的距离,将抓取点进行排序,并输出最优的抓取点。 需要注意的是,上述代码只是一个简单的示例,实际应用中需要根据具体的问题进行修改和优化。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

3D视觉工坊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值