前言
2023年7月,我司组建大模型项目开发团队,从最开始的论文审稿,演变成目前的两大赋能方向
- 大模型应用方面,以微调和RAG为代表
除了论文审稿微调之外,目前我司内部正在逐一开发论文翻译、论文对话、论文idea提炼、论文修订/润色/语法纠错、论文检索 - 机器人(具身智能)方面,我们1月份开始攻机器人、Q1组建队伍、5月份成功复现UMI和DexCap后「是国内最早复现这两模型的团队或之一,为不断扩大整个大模型机器人的开发队伍,需要从课程中选拔更多人才,故推出:机器人二次开发线下营(线下提供价值20万的实体机器人 供线下实操)」
本月(即6月)总算要开始为工厂赋能了(目前已经谈好三个工厂的合作意向)
总之,经过过去近一年的努力,在今年创业的第十年,我司从教育为主,变成了「科技为主 教育为辅」,主做大模型应用、机器人(具身智能)、解决方案
而对于其中的机器人,无论是我、我合伙人孙老师、Y博士(我司机器人方向的合伙人),还是整个机器人开发团队,对具身智能的发展都充满无比的信心,誓要全力加速赋能各个典型的工业场景,毕竟科技就是最直接的生产力
本文中的DexCap一开始是在此文《模仿学习的集中爆发:从Dobb·E、Gello到斯坦福Mobile ALOHA、UMI、DexCap、伯克利FMB》中的,考虑到
- 一方面,经过我司七月的一系列实践得知,相较Moblie Aloha、UMI「其中,UMI详见:UMI——斯坦福刷盘机器人:从手持夹持器到动作预测Diffusion Policy(含代码解读)」,对于很多场景,DexCap在工厂的落地性更高,可以更好的结合企业特定的需求场景做定制开发
- 二方面,我们准备把DexCap的源码也做下分析,以方便更广大的朋友
故把DexCap独立出来成本文
第一部分 斯坦福李飞飞团队DexCap:可扩展和便携的动作捕捉数据收集系统
1.1 项目背景:遇到的问题与解决方案
1.1.1 以前收集数据:从远程操作、基于视觉到运动捕捉
首先,对于数据的收集上,通过上面介绍的斯坦福mobile aloha/UMI可知,模仿学习最近在机器人领域取得了相当大的进展,特别是通过使用人类示范数据进行监督训练
- 常用的一种收集数据的方法是通过远程操作机器人手执行任务 比如mobile aloha。 然而,由于需要真实的机器人系统和缓慢的机器人运动,这种方法在扩展上是昂贵的
- 另一种方法是在操作过程中直接跟踪人手的运动而不控制机器人。 当前系统主要是基于视觉的,使用单视角摄像头。 然而,除了跟踪算法能否提供关键的准确的三维信息以供机器人策略学习之外,这些系统还容易受到在“手-物体”交互过程中经常发生的视觉遮挡的影响
- 对于收集灵巧操纵数据,运动捕捉(mo-cap)是一种比基于视觉的方法更好的选择。 运动捕捉系统提供准确的三维信息,并且对视觉遮挡具有鲁棒性。 因此,人类操作员可以直接用双手与环境进行交互,这样做快速且更容易扩展,因为不需要机器人硬件
比如对于下图这个例子而言,人类以固定的手势握住杯子把手。VR 头戴设备使用的基于视觉的手部跟踪方法由于遮挡严重而无法准确跟踪手指位置。DexCap 更有能力收集手部与物体的交互数据
进一步,为了将手部运动捕捉系统扩展到机器人学习的日常任务和环境中进行数据收集,一个合适的系统应该具备便携性和长时间捕捉的鲁棒性,能够提供准确的手指和腕关节姿态,以及三维环境信息,可问题是
- 大多数手部运动捕捉系统不具备便携性,依赖于校准良好的第三视角摄像头,虽然电磁场(EMF)手套解决了这个问题,但无法跟踪世界坐标系中的6自由度(6-DoF)腕关节姿态,这对于末端执行器(比如手指)的策略学习很重要
- 像基于IMU(Inertial Measurement Unit,惯性测量单元,主要用来检测和测量加速度与旋转运动的传感器)的全身套装这样的设备可以监测腕关节位置,但容易随时间漂移
除了硬件挑战外,还存在算法挑战,用于机器人模仿学习的动作捕捉数据。 尽管灵巧的机器人手使得直接从人类手部数据中学习成为可能,但机器人手和人类手之间的尺寸、比例和运动结构的固有差异需要创新算法
1.1.2 DEXCAP如何解决:便捷式动作捕捉、学习算法DEXIL、人机交互校正
为了分别解决硬件层面、算法层面的挑战,24年3月,李飞飞团队(Chen Wang、Haochen Shi、Weizhuo Wang、Ruohan Zhang、Li Fei-Fei、C. Karen Liu)分别开发了一种新的便携式手部动作捕捉系统DEXCAP,和一种模仿算法DEXIL(DEXIL允许机器人直接从人类手部动作捕捉数据中学习灵巧操纵策略)
- 项目地址:DexCap | Scalable and Portable Mocap Data Collection System for Dexterous Manipulation
- 论文地址:DexCap: Scalable and Portable Mocap Data Collection System for Dexterous Manipulation
对于系统,DEXCAP作为便携式手部动作捕捉系统,可以实时跟踪手腕和手指运动的6自由度姿态(60Hz),该系统包括
- 一个动作捕捉手套用于跟踪手指关节,每个手套上方安装一个相机用于通过SLAM跟踪手腕的6自由度姿态
- 并在胸部安装一个RGB-D LiDAR相机观察3D环境(注意,手部动作的精确3D信息,例如,6自由度手部姿态、3D手指定位等很重要)
对于算法,为了利用DEXCAP收集的数据来学习灵巧机器人策略,作者团队提出了基于动作捕捉数据的模仿学习方法DEXIL,它包括两个主要步骤——数据重定位和基于点云输入的生成式行为克隆策略训练(data retargeting and training generative-based behavior cloning policy with point cloud inputs),还可以选择性地进行人机交互式运动校正
- 在重定位过程中,他们使用逆运动学(inverse kinematics,简称IK)将机器人手指尖重定位到与人类手指尖相同的3D位置
手腕的6自由度姿态用于初始化IK,以确保人类和机器人之间的手腕运动相同 - 然后,他们将RGB-D观测转换为基于点云的表示,继而使用基于点云的行为克隆算法,基于扩散策略[13]
- 在更具挑战性的任务中,当IK无法填补人类手和机器人手之间的体现差距时,他们提出了一种人机交互式运动校正机制,即在策略执行过程中,当出现意外行为时,人类可以佩戴DEXCAP并中断机器人的运动,这样的中断数据可以进一步用于策略微调
总之,不同于以下这些
- DIME [3] 使用虚拟现实技术来远程操作灵巧手进行数据收集
- Qin等人 [60,Yuzhe Qin, Hao Su, and Xiaolong Wang. From one hand to multiple hands: Imitation learning for dexterous manipulation from single-camera teleoperation] 使用单个RGB摄像头来跟踪手部姿态进行远程操作
- DexMV [61]、DexVIP [45] 和 VideoDex [69]利用人类视频数据来学习运动先验知识,但通常需要在仿真或真实机器人远程操作数据上进行额外训练
DEXCAP专注于灵巧模仿学习,依赖于 DEXCAP 来收集基于三维点云观测的高质量手部动作捕捉数据,这些数据可以直接用于训练单手或双手机器人的低级位置控制
1.2 硬件设备:数据捕捉设备和机器人的设计
DexCap为了捕捉适合训练灵巧机器人策略的细粒度手部动作数据,DexCap的设计考虑了四个关键目标:
- 详细的手指运动跟踪
- 准确的6自由度手腕姿态估计
- 以统一坐标框架记录对齐的3D观察数据
- 在各种真实环境中具有出色的便携性以进行数据收集
1.2.1 追踪手指运动:使用Rokoko动作捕捉手套
经过实验得知,使用电磁场手套,相比于基于视觉的手指追踪系统,在手物交互中对视觉遮挡的鲁棒性方面具有显著优势(论文中对电磁场手套系统和最先进的基于视觉的手部追踪方法在不同操纵场景下进行了定性比较)
在他们的系统中,手指运动使用Rokoko动作捕捉手套进行跟踪,如下图所示
- 每个手套的指尖都嵌入了一个微小的磁传感器(Each glove’s fingertip is embedded with a tiny magnetic sensor)
- 而信号接收器则放置在手套的背面(while a signal receiver hub is placed on the glove’s dorsal side)
- 每个指尖的三维位置是从接收器到传感器的相对三维位移来测量的(The 3D location of each fingertip is measured as the relative 3D translation from the hub to the sensors)
1.2.2 追踪6自由度手腕姿态:2个T265追踪相机(一绿、一篮)和一个IMU传感器
除了手指运动外,了解机器人末端执行器在三维空间中的精确位置对于机器人操控至关重要。这需要DEXCAP用于估计和记录人手在数据收集过程中的6自由度姿态轨迹。 虽然基于相机和基于IMU的方法通常被使用,但每种方法都有其局限性
- 基于相机的系统,通常不便携且在估计手腕方向能力上有限,不太适合用于操纵任务的数据收集
- 基于IMU的系统,虽然可穿戴,但在长时间记录会话中容易出现位置漂移
为了解决这些挑战,故开发了一种基于SLAM算法的6自由度手腕跟踪系统,如下图(c)所示
该系统逐一通过
- 安装在每个手套背面的Intel Realsense T265相机「即两个鱼眼相机的图像(一绿、一篮)」
从而让其是便携的,可以在第三人称摄像机框架中无需手部可见的情况下跟踪手腕姿态 - IMU传感器信号(IMU传感器提供了训练机器人策略所需的关键手腕方向信息)
- SLAM算法构建环境地图
SLAM可以自动根据建立的地图纠正位置漂移,以实现长时间使用(SLAM can autonomously correct position drift with the built map for long-time use)
以实现对手腕6自由度姿态的一致跟踪
1.2.3 记录3D观察和校准:最顶部一个RGB-D LiDAR摄像机和一个(红色)T265跟踪相机
捕捉训练机器人策略所需的数据不仅需要跟踪手部运动,还需要记录3D环境的观察作为策略输入
为此,DexCap团队设计了一个装载摄像机的背包「如上图(a)、(b)所示,为方便大家对照,特把上图再贴一下,如下」
- 在正前面,它通过胸部摄像机支架的4个插槽集成了4个相机,最顶部是一台Intel Realsense L515 RGB-D LiDAR摄像机,顶部下面是3个Realsense T265鱼眼SLAM跟踪相机(分别为红、绿、蓝),用于在人类数据收集过程中捕捉观察结果
4个相机中
前两个:最顶部的L515 LiDAR相机,和三个T265相机中最上面的T265相机(红色)固定在相机支架上,这两个相机侧重记录3D观察和校准
后两个:即两个较低的(即绿色、蓝色)T265相机设计为可拆卸的,并可以固定在手套的背部进行手部6自由度姿态跟踪 - 在正背面,一个Intel NUC(Intel NUC 13 Pro,相当于就是一台带有64GB RAM和2TB SSD的迷你电脑),和一个40000mAh的移动电源放在背包中,支持长达40分钟的连续数据收集
接下来的关键问题是如何有效地将跟踪的手部运动数据与3D观察结果进行整合
- 在数据收集开始时,所有跟踪摄像机都放置在支架槽中(即一开始时,所有摄像头都安装在胸前。 在启动程序后,参与者在环境中移动几秒钟,使SLAM算法构建周围环境的地图),以确保相机框架之间的恒定变换(如上图左侧所示)
At the beginning of the data collection, all tracking cameras are placed in the rack slots,which secures a constant transformation between the camera frames - 然后,他们将跟踪摄像机从支架上取下(一绿、一蓝),并插入到每个手套上的相机插槽中(如上图右侧所示,绿在右边,蓝在左边)
相当于完成了从“人”到“机器人”在观察角度上的快速重新定位,如此机器人就可以使用与人类数据收集期间相同的观察相机
此外,为了在人体运动中确保稳定的观察结果,LiDAR摄像机下方安装了另一个鱼眼跟踪摄像机「在上图中标为红色」
当然,DexCap的硬件设计模块化且成本低廉,不限制相机、动作捕捉手套和迷你PC的品牌或型号,总成本控制在4000美元的预算范围内(不包括机械臂、机器手)
1.2.4 双手灵巧机器人的设计:双机械臂、双LEAP机器手
为了验证通过数据训练的机器人策略是否OK,接下来建立一个双手灵巧的机器人系统
该系统由两个Franka Emika机器人臂组成,每个臂上配备有一个LEAP灵巧机器人手(一个有16个关节的四指手),如图(b)所示
为了进行策略评估,如上图图(b)所示,人类数据收集中使用的胸部LiDAR相机被从背心上取下,并安装在机器人臂之间的支架上(对于机器人系统,只使用LiDAR相机,不需要手腕相机。 机器人臂和LEAP手都以20Hz的控制频率运行,同时使用末端执行器位置控制和关节位置控制来控制两只机械臂和两只LEAP手,即use end-effector position control for both robot arms and joint position control for both LEAP hand)
1.3 学习算法DEXIL:数据的重定向与基于点云数据的策略预测
接下来,使用DexCap记录的人手动作捕捉数据来训练灵巧机器人策略,然后,会遇到这几个问题
- 如何将人手动作重新定位到机器人手上?
- 在双手设置中,当动作空间是高维的时候,什么算法可以学习灵巧策略?
- 此外,还希望研究直接从人手动作捕捉数据中学习的失败案例及其潜在解决方案
为了解决这些挑战,作者引入了DEXIL,这是一个使用人手动作捕捉数据训练灵巧机器人的三步框架
- 第一步是将DexCap数据重新定位到机器人的动作和观察空间中
- 第二步使用重新定位的数据训练(基于点云的扩散策略)
- 最后一步是一个可选的human-in-the-loop correction机制,旨在解决策略执行过程中出现的意外行为
1.3.1 数据和动作重定向:人手的动作重定向到机器手上
动作重定向
如上图(a)所示,由于人手和LEAP手的尺寸差异很大,而这种尺寸差异使得不好直接将手指运动转移到机器人硬件上,故需要先将人手动作捕捉数据重新定向到机器人实体上,这需要使用逆运动学(IK)将手指位置和6自由度手掌姿态进行映射
先前研究中的一个关键发现是,在与物体互动时,手指尖是手上最常接触的区域(如HO-3D [25]、GRAB [76]、ARCTIC [16]等研究所证明的)。 受此启发,他们通过使用逆运动学(IK)来匹配手指尖位置,重新定向手指运动
具体而言,他们使用一种能够实时生成平滑准确的手指尖运动的IK算法[63, 64, 79],以确定机器人手的16维关节位置。 这确保了机器人手指尖与人手指尖的对齐
- 考虑到LEAP手和人手不一样,其只有4个手指,故在人手到机器手的IK计算过程中排除了人手中小指的信息
此外,在动作捕捉数据中捕捉到的6自由度手腕姿态作为IK算法中手腕姿态的初始参考
首先,把手腕的6自由度姿态和LEAP手的手指关节位置,共同被用作机器人的本体感知状态
然后,使用位置控制,比如把机器人的动作标签被定义为下一个未来状态「We use position control in our setup and the robot’s action labels are defined as next future states at = st+1」 - 观察和状态表示的选择对于训练机器人策略至关重要
最终,他们将LiDAR相机捕捉到的RGB-D图像转换为3D点云(We convert the RGB-D images captured by the LiDAR camera in the DEXCAP data into point clouds using the camera parameter)
且所有点云观测都被均匀地降采样为5000个点,并与机器人的感知状态和动作一起存储在一个hdf5文件中。 然后从整个录制会话(每个任务演示10分钟)中手动注释每个任务演示的起始和结束帧。 训练数据集中不包括重置任务环境的运动
如下图所示, 初始列显示原始点云场景。 第2-7列提供右、中、左三组视图(两个视图一组),且三组视图中每一组视图中的蓝色背景列显示人体数据,黄色背景列显示机器人手部重定位 与RGB-D输入相比,这种额外的转换有两个重要的好处
首先,由于DEXCAP允许人体躯干在数据采集过程中自然移动,而直接使用RGB-D输入需要考虑用于移动相机框架
但通过将点云观测转换为一致的世界坐标系(在mocap开始时,红色主SLAM相机的坐标系定义为世界坐标系),便可隔离并消除了躯干运动,从而得到稳定的机器人观测
其次,点云在编辑和与机器人操作空间对齐方面具有更高的灵活性(过程中,通过比较PointNet[58]和Perceiver [35, 42]编码器来确定最适合点云输入的编码器)
考虑到在野外捕捉到的一些动作可能超出机器人的可达范围,调整点云观测和运动轨迹的位置可以确保它们在机器人的操作范围内可行
故,最终基于以上这些发现,将mocap数据中的所有RGB-D帧处理为与机器人空间对齐的点云,并排除与任务无关的元素(例如桌面上的点)
因此,这些经过精细处理的点云数据成为输入到机器人策略π的观测输入
1.3.2 基于点云的扩散策略
通过转换后的机器人状态 、动作 和相应的三维点云观测 ,我们将机器人策略学习过程形式化为轨迹生成任务
- 对于策略模型π,通过处理点云观测和机器人当前的本体感知状态,以生成一个动作轨迹「an policy model π, processes the point cloud observations ot and the robot’s current proprioception state st into an action trajectory (at, at+1, . . . , at+d) 」
- 在中给定具有N 个点的点云观测,,然后将其均匀下采样为K 个点,并将每个点对应的RGB像素颜色连接到最终的策略输入中(Given point cloud observation with N points ot in RN ×3, we uniformly down-sample it into K points and concatenate the RGB pixel color corresponding to each point into the final policy input in RK×6)
- 为了弥合人手和机器人手之间的视觉差距,使用正向运动学将机器人模型的链接与本体感知状态进行转换,并将转换后的链接的点云合并到观测中
且在训练过程中,作者还通过在机器人的操作空间内对点云和运动轨迹应用随机的二维平移来进行数据增强(During training, we also use data augmentation over the inputs by applying random 2D translations to the point clouds and motion trajectories with in the robot’s operational space)
学习灵巧机器人策略的一个挑战,特别是对于双手灵巧机器人,是处理大维度的动作输出
- 在对应的设置中,动作输出包括两个7自由度机器人臂和两个16自由度灵巧手在d个步骤中的动作,形成了一个高维回归问题
In our setup, the action output includes two 7-DoF robot arms and two 16-DoF dexteroushands for d steps, which forms a high-dimensional regression problem
类似的挑战也在图像生成任务中进行了研究,该任务旨在回归高分辨率帧中的所有像素值(which aim to regress all pixel values in a high-resolution frame) - 最近,扩散模型通过其逐步扩散过程,在建模具有高维数据的复杂数据分布方面取得了成功,比如AI绘画
对于机器人技术,扩散策略「详见此文《UMI——斯坦福刷盘机器人:从手持夹持器到动作预测Diffusion Policy(含代码解读)》的第三部分」遵循相同的思路
从而将控制问题形式化为动作生成任务(For robotics, Diffusion Policy [ Diffusion policy: Visuomotor policy learning via action diffusion] follows the same idea and formalizes the control problem into an action generation task)
总之,一方面,使用扩散策略作为动作解码器,经验证它在学习灵巧机器人策略方面优于传统的基于MLP的架构(比如基于MLP的BC-RNN策略),如下表中,后5行的效果均高于前4行的结果
二方面,将DP-perc作为DEXIL的默认模型架构「其中,1 基于点云的学习算法(下表中最后三行的DP-point-raw,DP-point,DP-prec)不需要遮挡mask观测,且都实现了超过60%的任务成功率,2,即使不添加机器人手部点,下表中倒数第三行的DP-point-raw的性能也接近DP-point。这可能是因为点云输入的下采样过程降低了人类手套和机器人手之间的外观差距」
至于图像输入方法,使用ResNet-18 [29]作为图像编码器。 对于基于扩散策略的模型,则使用去噪扩散隐式模型DDIM进行去噪迭代 至于其他模型的选择及其他参数详见下图
在每次机器人动作之后,他们计算机器人当前自我感知与目标姿态之间的距离。 如果它们之间的距离小于一个阈值,认为机器人已经达到了目标位置,并将查询策略获取下一个动作
为了防止机器人变得空闲,如果它在规定的步数内未能达到目标姿态,将重新查询策略获取后续动作,一般在实验中将步数设定为10
1.3.3 人机协同校正
通过上述设计,DEXIL可以直接从DEXCAP数据中学习具有挑战性的灵巧操控技能(例如,拾取和放置以及双手协调),而无需使用机器人数据
然而,简单重定位的方法并未解决人机融合差距的所有方面。例如,使用剪刀时,稳定地握住剪刀需要将手指深入握柄。 由于机器手指与人手之间长度比例的差异,直接匹配指尖和关节运动并不能保证对剪刀施加相同的力
为了解决这个问题,我们提供了一种人在环路中的运动校正机制,包括两种模式-残差校正和远程操作。在策略执行过程中,我们允许人们通过佩戴DEXCAP实时向机器人提供校正动作(其中人类对策略生成的动作应用残差动作来纠正机器人行为。 纠正动作被存储在一个新的数据集中,并与原始数据集均匀采样,用于对机器人策略进行微调)
- 在残差模式下,DEX-CAP测量人手相对于初始状态在策略展开开始时的位置变化
位置变化被应用为残差动作到机器人策略动作,通过和进行缩放 然后可以将校正后的机器人动作形式化为
且经验性地发现,设置小尺度的 β(< 0.1)可以提供最佳用户体验,避免手指移动过快 - 在需要大幅度位置变化时,踩下脚踏板将切换系统到遥操作模式。则此时DEXCAP将不再使用之前的策略推理,而是直接将人类手腕变化应用于机器人手腕姿态(DEXCAP now ignores the policy rollout and applies human wrist delta directly to the robot wrist pose),机器人指尖现在直接跟随人类指尖,相当于直接遥控
换句话说,机器人指尖将在各自的手腕坐标系中通过逆运动学追踪人类指尖。用户还可以通过再次踩下脚踏板来在纠正机器人错误后切换回剩余模式
由于机器人已经学习了初始策略,还可以在一小部分回滚中进行校正,从而大大减少人力投入。 校正后的动作和观察结果存储在一个新的数据集中。 训练数据是从和原始数据集中以等概率抽样的方式进行的,以微调策略模型,类似于IWR [Human-in the-loop imitation learning using remote teleoperation]
1.4 数据
最终,作者使用三种数据类型(分别得到了201、129和82个演示):
- DEXCAP数据捕捉机器人操作空间内的人手动作
比如剪刀剪裁和泡茶任务分别获得了一个小时的DEXCAP数据,分别产生了104和55个演示 - 室外DEXCAP数据来自实验室外环境
比如一个小时的室外DEXCAP数据提供了96个演示 - 使用脚踏板收集human-in-the-loop correction data,用于调整机器人动作或启用远程操作以纠正错误
human-in-the-loop correction data for adjusting robot actions or enabling teleoperation to correct errors, col-lected using a foot pedal
数据最初以60Hz记录,然后降采样到20Hz以匹配机器人的控制速度,纠错数据直接以20Hz收集
最后,对于机器人的控制而言,采用Position control,以分层结构的方式进行:
- 在高层次上,学习策略生成下一步的目标位置,该位置包括机器人双臂末端执行器的6自由度姿态和双手16维手指关节位置
- 在低层次上,操作空间控制器(OSC)[A unified approach for motion and force control of robot manipulators: The operational space formulation]连续地插值将机械臂轨迹移动到高层次指定的目标位置,并将插值的OSC动作传递给机器人执行
第二部分 硬件设备列表及对应价格:DexCap之Hardware Building Guide
根据dexcap提供的硬件安装指南,可知
2.1 Bill of Materials
Part | Link | Quantity | Unit Price | Total Price |
Realsense L515 camera | 1 | $589.00 | $589.00 | |
Realsense T265 x3 | 3 | $250.00 | $750.00 | |
Chest Mount | 1 | $17.99 | $17.99 | |
Type-C to type-C cable (3m) | 1 | $21.99 | $21.99 | |
Micro B to USB 3.0 cable with screws locking (3m) | 3 | $13.88 | $41.64 | |
Power bank 130W Portable Power Bank, 148WH/40000mAh | 1 | $199.99 | $199.99 | |
Intel NUC | 1 | $449.99 | $449.99 | |
Rokoko smart gloves | 1 | $1,495.00 | $1,495.00 | |
Mini WiFi router | 1 | $39.99 | $39.99 | |
$3,605.59 |
相当于上述硬件差不多¥2.6万
至于机器人本身,则是Robot(即机械臂 + 机器手):2 Franka arms + 2 LEAP hands
价格方面
- 前者是Franka Emika Panda 是德国 Franka Emika 公司推出的高精度轻型机器人,约人民币15-20万/个,两个则得30-40万
- 后者LEAP 手的完整版价格在 人民币7万上下/个,两个则差不多14万上下
至此,dexcap的全套斯坦福原装配件,差不多总计50万上下
2.2 CAD Models
需要打印的物品:
- 中心摄像机架和标签板
- 手套摄像机支架 x2(左右镜像)
- T265 背板 x2(左右镜像)
导出的 STL 文件在这里(The exported STL file is here)
建议以 Z 轴倾斜 45 度以内的角度打印滑槽,以确保打印部件顺畅运行,且请勿水平打印滑槽
If you want to take a look at the original files on OnShape and how they are assembled, they are shared here.
2.3 硬件设备更新:顶部换成Intel D435、手套上换成VIVE Ultimate Tracker
如下图所示
- 在dexcap最早的硬件版本中,胸前挂着一个L515相机、一个T265相机,左右两只手套上各戴一个T265相机
- 而在后来8月份的新硬件版本中,胸前则换成了D435相机,且左右两只手套上各戴一个VIVE Tracker
// 待更
第三部分 DexCap的源码剖析
// 待更