One-Shot Imitation from Observing Humans via Domain-Adaptive Meta-Learning

上一篇(One-Shot Visual Imitation Learning via Meta-Learning)使用远程操作收集的机器人演示和损失L的均方误差行为克隆目标,将MAML算法应用于一次性模仿学习问题。虽然这可以在元测试时从一个机器人演示中学习,但它不允许机器人从人类的原始视频中学习(本文)或处理演示媒介和机器人之间的域转移。接下来,我们将介绍我们在域转移下从原始视频中一次性模仿学习的方法。

发表时间:5 Feb 2018

论文链接:https://readpaper.com/pdf-annotate/note?pdfId=4558048689596145665&noteId=2456557778538601472

作者单位:University of California, Berkeley

Motivation:人类和动物能够通过观察其他人只执行一次技能来学习新行为。我们考虑允许机器人做同样的问题——从人类的原始视频像素中学习,即使机器人与观察到的人类之间存在实质性的域转移。之前解决这个问题的方法有手动指定人类和机器人动作如何对应,并且通常依赖于明确的人体姿势检测系统。

我们如何赋予机器人从人类演示者的原始第三人称观察中学习行为的能力相同?第三人称的视角直接哪人类的视频就可以,这类视频有好多,比如各大网站。第一人称的视角的视频比较少,需要人带着设备去采集数据。(现在我们常见的模仿学习的数据实际上大多数是第一视角的,通过遥操作)

解决方法

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ming_Chens

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值