文章亮点:
1、该文章的重点在于解决Learning robust, real-time, reactive robotic grasping论文中所存在的重大缺陷,即近距离抓取闭环控制由于深度相机失效导致控制失败。
2、针对上述问题,文中作者将闭环抓取控制器做成一个可选择控制器,即闭环抓取前半段采用以前的QBVS(基于位置的视觉伺服)方法,当深度相机失效后采用IBVS(基于图像视觉伺服)方法。
3、文章的重点是深度相机失效前最后一个输出的抓取位姿映射到平面图像的二维问题
4、文章的另一个重点是抓取点确定后采用SIFT(尺度不变特征变化)解决由于相机和被抓去物体之间的相对位移
文章总结:
1、本文对于闭环抓取控制的又一次改进和提升,针对闭环抓取后半段闭环失效问题提出了有效的解决方法,特别是在运动物体抓取过程中,以前的方法后半段物体的运动机器人是感觉不到的,作者引入基于图像的视觉伺服有效解决了该问题
2、本文充分利用了当前两种主流的视觉伺服方法优点,避免了缺点。在视觉伺服去前半段采用基于位置的视觉伺服,可以快速的达到预定的位置,该方法基于位置,即使被抓取物体不在视觉范围内也能到达相应位置。基于图像的视觉伺服要求被抓取物必须在视线范围内,适合抓取的后半段进行精确的抓取,该方法的鲁棒性也较强。
文章存在的不足:
1、本文是预印文本,相关的实验数据并不是很充分,一些问题并不是很完善。在抓取的后半段由于基于图像的视觉伺服以及特征点追踪方法计算量较大,导致后半段的闭环抓取有一定的延迟。
2、文中对于从深度图像到彩色图像特征点的传递过程介绍有些模糊,不容易理解