上一篇(One-Shot Visual Imitation Learning via Meta-Learning)使用远程操作收集的机器人演示和损失L的均方误差行为克隆目标,将MAML算法应用于一次性模仿学习问题。虽然这可以在元测试时从一个机器人演示中学习,但它不允许机器人从人类的原始视频中学习(本文)或处理演示媒介和机器人之间的域转移。接下来,我们将介绍我们在域转移下从原始视频中一次性模仿学习的方法。
发表时间:5 Feb 2018
论文链接:https://readpaper.com/pdf-annotate/note?pdfId=4558048689596145665¬eId=2456557778538601472
作者单位:University of California, Berkeley
Motivation:人类和动物能够通过观察其他人只执行一次技能来学习新行为。我们考虑允许机器人做同样的问题——从人类的原始视频像素中学习,即使机器人与观察到的人类之间存在实质性的域转移。之前解决这个问题的方法有手动指定人类和机器人动作如何对应,并且通常依赖于明确的人体姿势检测系统。
我们如何赋予机器人从人类演示者的原始第三人称观察中学习行为的能力相同?第三人称的视角直接哪人类的视频就可以,这类视频有好多,比如各大网站。第一人称的视角的视频比较少,需要人带着设备去采集数据。(现在我们常见的模仿学习的数据实际上大多数是第一视角的,通过遥操作)
解决方法: