Character Controllers Using Motion VAEs-动作生成算法

该研究结合了自编码器和深度强化学习,通过VAE编码动作变化的潜在变量,利用DRL规划达到目标位置的运动策略。文章提出了一种名为MVAE(motionVAE)的方法,能够生成逼真的动作并规划机器人运动路径。
摘要由CSDN通过智能技术生成

Character Controllers Using Motion VAEs

来源: SigGraph2021
研究方向: 动作生成
链接: https://arxiv.org/abs/2103.14274

文章动机

这篇文章整体的风格还是MANN,PFNN的那一套,是一个基于条件自编码器的的自回归模型。思路自然就是借助自编码器的encoder得到分布的均值和方差,然后基于采样得到重建分布的隐编码z,然后把隐编码z作为控制条件,去驱动t-1帧的人物动作向第t帧变化。值得注意的是,自编码器的输入是t-1帧的状态信息和t帧的状态信息。

方案实施

在这里插入图片描述

方案整体是非常朴素的,希望借助两帧状态信息的差异来让自编码器学习控制动作转换的分布,然后从分布中采样控制信息,去控制第t-1帧的状态向第t帧的状态转化。

然后下面接入DRL的部分,通过与环境的交互,规划每一个时间点上的潜变量控制信息z,然后得到规划好的动作,进而和环境再进行交互,得到再一次转移的动作。
在这里插入图片描述

方案可行性

使用VAE来编码控制运动的潜变量可以生成比较好的动作,然后在这个基础上,给出一个target的目标位置,借助DRL,进一步去学习运动到目标位置上的整个动作策略。嗯,也不是很复杂,有点意思!

结论

  • 用VAE可以编码控制动作变换的信息
  • 用DRL和VAE可以为机器人规划到达target位置的运动,称为MVAE。(motion VAE)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值