文章亮点:
1、提出了一种新的抓取表示方法——直径圆的表示方法
2、提出了一种定向直径圆投影回六自由度抓取位姿方法
3、将目标检测方法YOLO和抓取配置检测网络并联
4、在康奈尔数据集上取得了最高的抓取检测准确率(作者改变了判定方法)
文章总结:
文章中作者提出了一种新的基于RGB的抓取检测CNN模型,之前的那篇一区用的只是深度相机的深度图,而且用的类似于图像分割的方法,所以通过对比发现这两篇文章用的是完全不同的两种方法。而且之前的那篇文章侧重于实验,通过大量实验验证了其模型,本文并没有进行抓取实验只是在数据集上进行了测试。另一个值得注意的点是,之前的那篇文章在近距离处深度相机失效。而本篇文章的RGB相机则不会失效,所以本文的方法用于实验的可行性有待验证。
文章存在的不足:
文章中并没有将作者的模型应用于实际的抓取实验,从作者提供的检测速度50fps来看可以满足闭环抓取,所以将作者的方法选择合适的视觉伺服方法就可以将模型一直到机器人上进行测试。初步想法将之前的深度方法和本文的RGB方法融合进机械臂,将机械臂配置两个相机。一个在手臂上固定,另一个在抓取位置之外固定,两个相机并行处理。