本文使用自上而下的分解阶段,旨在学习如何执行基本的舞蹈动作。
为此,需要定义和提取舞蹈单元,并引入用于编码和解码舞蹈单元的DU-VAE。
在自下而上的创作阶段,本文的目标是学习如何将多种基本动作组合到一支舞蹈中,从而根据不同的音乐传达高级的动作语义。
Sowe提出了MM-GAN,用于以音乐为条件的舞蹈动作的产生。
最后,在测试阶段,本文使用DU-VAE和MM-GAN的组件根据给定的音乐来循环合成长期舞蹈。
Interactive Body-Driven Graphics for Augmented
Video Performance
提出:为了辅助教学任务
观察19个现有的增强视频,关注输入动作类型和图形效果
用户经常用双手模拟操作对象的旋转、平移、缩放。信号手势主要通过单个笔划一样的动作。比如反复挥动一只手
特性:
- 直观易用的操作UI
- 灵活的操作界面,可以让用户进行广泛的参数设置与图形交互
- 提供交互式控件解决歧义等问题(特定的滑块)
可通过一个物体的运动驱动很多个物体的运动
定义了多种交互手势:
- Pantomimic gesture用来控制坐标轴变换
- Iconic gesture 用户自定义交互手势,并且图像元素的显示位置和大小根据手势的位置和大小而产生
- 装配和可变形交互
- 身体特定姿势
- …
为了避免误触发以及重复触发,需要双击和特殊的手势才会开启演示
局限性:图形效果必须用户定义,所需要的时间代价大;需要一个大型显示器;只能手势,能不能接入语音等?
个人思考:显示效果很平面