模仿学习
深视
这个作者很懒,什么都没留下…
展开
-
论文阅读笔记《One-Shot Imitation from Observing Humans via Domain-Adaptive Meta-Learning》
核心思想 经过多篇文章的铺垫,小样本模仿学习终于走到了最后一步,通过观察一次人类完成某个新任务的示教动作,机器人就可以学会该任务。完成这一艰巨的任务面临两大困难:人类示教动作相比于机器人存在外表和形态学上的变化,即存在一致性问题;其次,从原始的视觉输入中学习需要依赖大量的数据,通常需要用成千上万张图像进行训练。而本文采取了一种领域自适应的元学习算法(Domain-Adaptive Meta-Learning)解决了这两大难题。 作者首先还是回顾了一下MAML算法,并且将内层次训练的损失函数成为自适应原创 2020-05-12 22:04:20 · 640 阅读 · 0 评论 -
论文阅读笔记《One-Shot Visual Imitation Learning via Meta-Learning》
核心思想 本文是利用元学习实现小样本模仿学习系列文章的第二篇,相对于上一篇文章,本文实现了视觉模仿学习,通过输入示教动作的视频或图像序列就能实现模仿学习,引入了MAML元学习算法,并且在此基础上进行了改进,使其能够实现在元测试时只提供示教的图像而没有对应的action的情况下,学会完成一项新的任务。 MAML算法简单讲就是把元训练过程分为内训练和外训练。首先采样得到一系列任务样本Task,对于每个任务TiT_iTi至少包含两个示教图像序列,一个用于内训练的πi\pi_iπi,一个用于外训练的πi原创 2020-05-11 19:02:08 · 621 阅读 · 0 评论 -
论文阅读笔记《One-Shot Imitation Learning》
基本思想 模仿学习,顾名思义就是机器人通过模仿示教动作(Demonstration)从而学会完成某项任务的过程,这里包含几个重要的概念:状态(State,StS_tSt),动作(Action,AtA_tAt),示教动作(Demo)和策略(表现为神经网络的参数θ\thetaθ),模仿学习就要利用神经网络实现根据当前的状态,示教动作和学习策略得到要执行的动作,At=f(St,Demo,θ)A_t=f(S_t,Demo,\theta)At=f(St,Demo,θ)。通常机器人需要观察大量的示教动作,进原创 2020-05-09 20:58:03 · 978 阅读 · 0 评论