Making Sense of Vision and Touch: Self-Supervised Learning of Multimodal Representations for Contact-Rich Tasks
本文根据个人在seminar课上的论文分享汇报整理而成,仅供相关方向研究者或爱好者学习参考,不做任何商业用途。图片来自于论文,如有侵权,请联系删除。
很多研究机器人的同行应该读过这篇文章,或听闻过这篇获ICRA2019最佳论文的文章。文章由李飞飞的高徒朱玉可领衔完成,该文章分两版,其中第一版是被ICRA录用的,第二版是第一版的完善,完成了第一版中提出的未来的工作,可见其团队的用心。下面我们就来“欣赏”这篇美文吧,不得不说,获奖的论文包括英语用词都非常地讲究,强烈建议英语论文不知如何写的小伙伴去读读原文。
项目简介
文章在开头举了一个非常贴近生活的例子——拿钥匙启动汽车,来启发人们触觉和视觉在人生活中的重要性。那对于模仿人类的机器人而言,这两种感觉在控制机器人时同样重要,但对人类轻而易举的动作,对机器人而言却困难重重。首先是非结构化的环境,其次是两种(多种)模态的输入信号的融合问题,最后是控制器如何设计,控制算法如何部署保证实时性的问题。这里就使用了Kuka的机器人来完成一个钉钉子的任务,通过这个任务来检验所提方法的可行性即鲁棒性。
通过以下这幅图就能更直观地看出机械臂控制实验的三个步骤:抵达、