目录 3.2 目标点云的预处理 3.2.1 直通滤波 3.2.2 体素降采样 3.2.3 剔除支撑平面 3.2.4 剔除离群点 3.2.5 点云法向量计算 3.3 候选抓取位姿的采样 3.4 基于结构和参数优化的 SCPN-GPD 网络 3.4.1 网络结构与参数优化 3.4.2 SCPN-GPD 网络结构 3.5 抓取仿真实验 3.5.1 抓取数据集 3.5.2 抓取评判标准 3.5.3 仿真实验结果与分析 基于 AUBO-i5 机械臂的抓取平台与实验测试 4.1 实验平台搭建 4.2 视觉系统相机标定 4.3 机械臂与相机手眼标定 4.4 实例抓取实验与结果分析 4.4.1 单目标抓取对比实验 4.4.2 多目标抓取对比实验 本文篇幅较长,分为上下两篇,上篇详见基于三维点云的机器人抓取位姿检测 3.2 目标点云的预处理 视觉系统阶段首先将 Kinect 相机采集的深度图转化为点云数据,由于深度相机 在测量时物体材质、光线变化以及区域遮挡等影响,并且抓取场景点云较冗杂,采