自研多模态追踪算法 PICO 为「手柄小型化」找到新思路

作者:张韬、林泽一 、闻超 、赵洋

研发背景

作为头戴的追踪配件,VR手柄可以通过HMD(头戴显示设备)的inside-out光学追踪定位原理,计算出手柄的空间运动轨迹,同时结合6轴传感器实现6DoF空间定位。与此同时,结合手柄控制器的物理按键、马达反馈、摇杆等,用户还能获得逼真、细腻的触觉反馈,进一步增强虚拟现实人机交互的能力以及沉浸感,这也是目前无手柄方案所难以实现的。

目前主流VR手柄的追踪技术方案,包括光学追踪、自追踪和电磁追踪方案。

304e1fbcf7c4ce82b9a4e5c2e3981c1e.png

因精度高、功耗低、成本低,光学追踪是目前最主流的VR手柄追踪方式。为了保证IR灯(红外灯)不易受遮挡,通常手柄本体上都带有一个明显凸起的追踪光环。

但为了顺应VR设备小型化得趋势,提升用户携带的便利性,并提供更自然的交互方式,PICO取消了手柄上的追踪光环,选择在手柄本体有限区域内布置少量的IR灯。

Centaur多模态融合算法架构

更小的手柄、更少的IR灯,也意味着更频繁的遮挡。如何解决遮挡情况下的手柄追踪问题,则是PICO研发团队面临的关键课题

基于团队在光学追踪与裸手追踪方面的技术积累,PICO创新性地提出了一套基于神经网络的多模态手柄追踪架构,其融合了惯性测量单元(IMU)、光学传感器和手部图像信息。在手柄被遮挡的情况下,裸手追踪能够提供更加精准的观测,同时手柄又能为手部追踪提供准确预测,两者深度融合、相互辅助。

裸手追踪

由于手柄的遮挡,通常裸手视觉特征并不明显,这也常常会引发追踪失效。针对该难点,裸手算法团队创新性地提出Down-Top的端到端6DoF追踪算法,通过有效利用多目时序的全局上下文信息,一次性准确且稳定地预测手柄位姿信息,能够在手柄追踪失效时,及时提供鲁棒的6DoF位姿。

1. 模型背景

目前普遍的裸手追踪算法是基于Top-Down结构,即基于Detection模型检测出手部的bounding-box框,再利用bounding-box框将手部抠选出来,如下图所示:

1c84d8832eaaef584c465d4a7463e1b6.png

该结构可以获得更高的精度,但是在平举、自然垂下等特殊动作场景中,由于小手柄遮挡或离得较远等原因,手部放大之后模糊的地方较多,如下图所示:

43543e2609a93914c026228eb0b06e21.jpeg5f9a4e5ce87157e87b539883b77de11c.jpeg

这种情况下,Top-Down的结构就很难检测出手腕点的位置,从而导致解算失败和手柄失效。但Down-Top的结构,则可以帮助PICO从大图中的手臂、身体等信息,判断手腕点的位置。

2. 模型结构图
c0c93d1fb4ff9f197fa517af783406ef.png
3. 评测结果

从使用Top-Down模型结构和Down-Top模型结构在平举和垂下等场景中的实验结果中,可以发现,使用Down-Top方案,能够在精度相近的情况下,获得更高的检出率:36%->93%。

Top-Down

386583023554f664c21b89c5bcf44b08.png

Down-Top

a070ef6bbdb7b7717c69275a5d5228aa.png

融合算法

1. 全新挑战

传统光学追踪方案,依赖手柄上一个显著突出的物理结构(即追踪光环),来确保手柄在各种各样的握持角度和位置条件下,都有足够的LED灯点可以被定位摄像头观测到。多个LED光点在图像上的2D位置被确定后,则可以进行PNP解算,辅以手柄内高帧率的IMU,则可以获得精确的手柄高频定位结果,从而为用户提供准确、流畅的追踪体验。

d93dcf41d3d6f2c9e71df9b626b85e04.png

PICO 4 手柄

88b84b79ec1582205176abaad3f125d7.png

Quest 2手柄

但去掉光环后,追踪算法则面临较大挑战。由于LED只能够被稀疏的布置于手柄本体的几个区域,且更少的数量和更易被遮挡的情况,也导致摄像头经常性地只能观测到有限的红外灯,甚至是零个。此时算法仅依赖IMU的惯性递推解算,并不能长时间提供稳定可靠的定位信息。

PICO算法团队经过多轮探索预研后,创新提出了融合惯性测量单元(IMU)、光学传感器和手部图像信息的多模态融合方案。该方案基于手势识别和手柄光学追踪的互补性,完美地解决了上述的一系列挑战和难点。团队将其命名为Centaur多模态融合算法。

2. Centaur多模态融合算法的构成

Centaur多模态融合算法将视觉信息和惯性信息进行融合,进而得到手柄位姿及速度的最优估计,并提供给上层应用层。融合算法构成如下图所示:

5faf12ebb79c1cfdc2c659f33656ae4c.png

图中各模块的功能:

  • 多个Global-Shutter IR camra布置在头戴四周,正常曝光帧能够采集到人手的特征,低曝光帧则能够在抑制大部分环境光照干扰时获取到手柄中的LED位置。

  • 一个IMU模块布置在手柄内部,提供手柄运动时的加速度和角速率信息。

  • 3-DOF模块借助纯IMU数据估计手部的旋转信息。

  • 基于深度学习手势检测及追踪模块(AI-based hand detection & tracking),通过有效利用多目时序的全局上下文信息,准确预测手柄的位姿信息。

  • 光学定位模块(Led detection / matching & pose estimation),使用3-DOF提供的姿态和LED在手柄上的分布等先验信息,通过智能匹配机制确定图像光斑和led灯的匹配关系,得到手柄位姿的单帧估计值。

  • 多帧融合滤波器(Multi-State-ESKF),将得到的手部位姿、手柄IMU数据、LED光学估计位姿及LED匹配关系等信息进行融合计算,得到高精度、高帧率的手柄位置、旋转及速度信息,并更新给系统接口,供上层应用使用。

3. 追踪与融合

当算法首次运行,或处于3DOF状态时,由于没有连续追踪产生的时序先验信息,因此需要Bootstrap from scratch的初始化方案。在LED及手势两种信息的加持下,初始化算法相比传统光学定位也做了相应的升级,并运行LED初始化和手势初始化两种算法,最先解出正确初始状态的算法将使用手柄初始位姿及速度初始化融合滤波器,从而显著改善各种握姿下手柄初始化的速度和成功率。

而当算法初始化完成并进入追踪状态时,算法流程又如下图所示:

6e754686d6ae27cec37237d4445c3de2.png
  • Step 1. 当一个新的图像帧到来时,基于滑窗中的历史帧状态,利用IMU数据进行惯性递推解算,得到新图像帧的状态预测值。

  • Step 2. 基于预测的手柄位姿能在当前帧图像中得到手柄LED或手部特征的预测位置,下面具体分类描述:

    • 针对正常曝光帧: 采用上文所述的Down-Top的网络结构,直接得到手腕关节6DOF的位姿结果,使用“手柄-手腕”对齐关系转换成手柄位姿,添加为一个位姿观测,作为当前帧的约束。

    • 针对低曝光帧: 在区域中检测得到LED光斑的2D位置。基于最近邻匹配算法,将预测的2D点集与检测得到的2D点集进行匹配。使用PNP solver得到手柄位姿估计,将位姿结果和2D匹配结果都添加到观测factor,作为当前帧约束。

  • Step 3. 最终的融合算法采用了Multi-State ESKF方案,采取了松耦合/紧耦合结合的模式,对追踪效果有显著改善的同时节省计算量并保证稳定性。

4. Centuar多模态融合算法收益
  • 下图为仅有 3 颗 LED 灯时手柄静止状态下的追踪效果,多帧紧耦合比单帧松耦合的结果更加精确,追踪更加稳定,波动显著减小

    • 光学观测的抖动非常明显,±3sigma范围约为「x轴16mm,y轴4mm,z轴25mm」。实际动作是放在头戴正前下方,露出三颗红外灯并保持静止,因此深度方向上(xz)误差显著大于与深度正交方向(y)上的误差。

    • 松耦合eskf对光学观测抖动有抑制作用,三轴向抖动范围压到「x轴6mm,y轴2.5mm,z轴9mm左右」,但速度估计波动仍有10mm/s。

    • 多帧紧耦合的结果是最好的,轨迹明显更平滑,抖动范围约「x轴2mm,y轴1mm,z轴3mm左右」,速度抖动范围3mm/s左右,相比原Filter各项误差指标大约有3倍收益。

e3998d3e4073b26abed53b829063c70e.png
  • 当做翻手动作,彻底遮挡所有LED时,算法融合手势定位信息与IMU信息,能够保持手柄的追踪状态与追踪精度,在各种场景下均能切换自如,丝滑操作。

  • 为了验证追踪效果,PICO团队还进行了极客玩家的极限测试,在运动健身、音游等需要快速甩动手柄的场景下,PICO多模态融合算法,都能准确且稳定地追踪手部和手柄的位置、姿态。

494b7727c70fe1f0953b415f5044af53.png

PICO 无灯环小手柄

自研同步多相机系统

数据采集与自动标注

PICO数据实验室构建了多模态的同步相机系统,不仅能获得大量且高精度的数据信息,也为技术和产品的研发奠定了坚实基础。该系统硬件方面包括工业 RGB 相机阵列,结构光扫描仪,光学动捕相机系统,以及 VR 头戴,软件方面包括点云注册、时空间标定、手势手柄自动标注等,数据采集与自动标注流程包含采集前的准备和数据采集作业,其中数据采集作业又分为两个阶段。

baa527e152456830618cc9514984f05e.png

左:同步相机系统;右:带光球的 VR 头戴

  • 采集前的准备

我们采用结构光扫描仪获取手柄和 IR 光球表面的密集点云获得了光球到手柄模型的转换关系。我们还将光球绑定到了 tag 标定板上,通过观测标定板获得了包括 VR 头戴在内的传感器参数;对于各个传感器的时间线,我们采用两种方式来对齐:一是侵入式地共用外部时钟信号,二是通过快速舞动头戴设备,从而获得 VR 头戴轨迹和与其绑定的光球轨迹来进行时、空间对齐。

f2b17177a2ba49502be7aeae879f3df9.jpeg

采集前,结构光扫描及注册

ef7fc4db22a2576b3ba6181152d31044.png

阶段一,采集手和手柄空间关系

600d0e83bf689d159a29ef8014ea09a6.png

阶段二,手柄跟踪及手势标签

  • 数据采集作业

    • 第一步,以多视角的图像作为输入,使用自研的手部姿态标注算法获得关键点位置。在这一环节中,为保持数据的高精度,我们提出了基于解耦表示的手势姿态估计算法。我们构建了 2D 视觉空间和 3D 节点空间,并通过迭代的方式不断优化手部姿态。同时,为了解决数据标注冷启动时训练数据来源的问题,我们还设计了多视角自监督的框架。相关算法已发表于 ICCV2023 会议中

    • 第二步,在获得不同视角观测的手部姿态后,我们融合多视角信息。通过使用三角化方法,通过 RANSAC 获取多视角融合后的 3D 手部姿态。在此基础上,再结合每个手部关键点的置信度进行微调优化。

    • 第三步,以上一步获得的 3D 手部关键点为目标,综合考虑骨骼位置、运动速度、手部关节的旋转、手势和手柄之间的碰撞关系等多种约束,对前序的结果进行优化。至此,我们获得了手的关键点以及手和手柄的相对位置关系

    • 第一阶段:相机系统同步采集工业相机和 VR 头戴相机的图像,并同时采集光学动捕相机捕捉的标志点坐标。

  • 第二阶段,被采集者保持手相对手柄姿势不变,在不同场景中挥动手柄获得其轨迹。

通过光球与手柄之间、阶段一获得的手和手柄之间的空间关系,以及阶段二采集的光球轨迹,就能获得手势、手柄在采集空间中的轨迹。另一方面,通过光球与头戴之间的空间关系与阶段二跟踪获得的光球轨迹,就能将手势、手柄投影到头戴相机中获得数据标签了。

总结

PICO研发团队始终致力于为全球用户创造优质的XR技术和产品体验。手柄小型化设计是XR交互方案设计中的创新性和突破性进展,而PICO自研的Centaur多模态追踪算法,不仅让「手柄小型化」完成了技术突破并成功落地,也为后续的人机交互设计提供了新的思路和可能性。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值