基于Kinect姿态比对的匹配度算法改进

          前两天算是仔细研究了Kinect里PoseDetectionDemo里面的核心脚本的匹配原理。最近在做本科毕业设计,核心设计也是姿态匹配度检测。动作为太极拳中的云手,因为Kinect官方Demo中的姿势比对在正面无覆盖的姿势对比效果较好,但是在转身以及深度不同的动作检测上有较大偏差。主要体现如下: (图中左为PoseModel,右为AvatarModel)  

             

         可以看见根据骨骼生成的模型,在腿膝,手臂处都很有问题。下蹲动作表现的不明显,且因为身体转向甚至发生了腿膝关节的转向。在与标准动作比对时,因为在水平面上的转向将会导致更大的用于比对的向量之间的偏差。另外,在图中右手臂有一定深度时,手臂肘关节发生了折转,也是在前后(z轴)方向上的偏差。

         现在拟用骨骼数据在xOy平面上的投影和关节点的距离来作为约束或者匹配条件,应该可以解决部分问题。

 

    Vector3 vec3 = new Vector3(1, 2, 3);
    Vector2 vec2 = vec3;
    Debug.Log(vec2);

         尝试了一下直接将Vector3赋值给Vector2,日志中打印的结果是(1,2)。直接将末尾z轴信息省略,是我们所需要的结果。所以对原PoseDetectionScript脚本稍作改进即可。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值