文章目录
1. 【2023CoRL】A Universal Semantic-Geometric Representation for Robotic Manipulation
针对痛点和贡献
痛点:
- 尽管RGB相机记录了富含语义信息的2D图像,但缺少精确的空间信息;而深度相机提供了关键的3D几何数据,但语义理解有限。因此,整合这两种模态对于学习机器人感知和控制的表征至关重要。
贡献:
- 作者提出了一种名为Semantic-Geometric Representation (SGR) 的通用感知模块,利用大规模预训练的2D模型的丰富语义信息,并继承了3D空间推理的优势。
引言
使用RGB相机捕获高分辨率的2D图像来推理复杂的空间关系是困难的。
另一方面,深度相机提供了3D几何信息,这对于精确的细粒度操控至关重要。尽管如此,它们在语义理解方面有限。
在利用预训练的大型视觉模型来学习视觉表征的越来越多的研究中,这些模型通过预训练获得了对世界的一般性知识。 我们的世界本质上是三维的。面对现实世界环境的复杂性,只有2D先验知识的机器人可能会面临诸如部分遮挡和几何形状理解的挑战。 因此,开发能够有效处理3D视觉数据的模型对于使机器人进行有效的空间推理至关重要。
一个自然而直观的解决方案是开发预训练的3D视觉模型。然而,尽管在视觉界有一些尝试[18, 19, 20, 21],但由于两个主要原因,当前的模型还没有足够的迁移性到机器人操控任务。(i)昂贵的数据获取和劳动密集型的注释过程导致缺乏大规模的3D数据集[22, 23]。(ii)具有稀疏结构模式的3D点云与多彩的2D图像相比,没有提供多样化的语义,从而限制了3D预训练的泛化能力[24]。
为了解决单独使用2D或3D视觉模型所带来的挑战,我们提出了语义几何表征(Semantic-Geometric Representation, SGR),这是一种混合感知模块。
我们首先使用一个大型视觉基础模型,在大量的互联网数据上预训练,以从2D图像中编码语义特征图。其次,这些内容丰富的2D特征向量被重新投影到3D空间,并与使用基于点的网络从点云中提取的点云特征相结合。这些融合的特征被送入多个集合抽象(Set Abstraction, SA)块,这些块共同模拟2D语义和3D几何信息之间的跨模态交互。最后,基于SA块的输出表征,我们预测要执行的机器人动作。
模型框架
-
我们首先使用一个冻结的预训练2D模型G(例如,CLIP的视觉编码器)从多视图图像中提取特征{G(Ii)}K i=1。如果任务提供了语言指令S,我们使用预训练的语言模型H(例如,CLIP的语言编码器)获得语言编码H(S)。 视觉锚定模块 接下来,我们通过双线性插值将视觉特征图{G(Ii)}K i=1(或对齐的特征图{Mi}K i=1)上采样到与输入图像相同的尺寸,并使用1×1卷积将通道降采样,得到一组特征{Fi}K i=1,其中Fi ∈ RH×W ×C1,H, W代表图像尺寸。这些编码的2D特征包含了丰富的高级语义,被重新投影回3D空间,为点云生成逐点的语义特征。
-
使用多视图深度图像和已知的相机参数(即相机内参和外参)生成原始点云。随后,我们使用基于点的网络(例如,分层的PointNeXt)处理点云P′。这一处理步骤产生了下采样的点几何特征。表示为G ∈ RM×C2,其中M < N。虽然这些几何特征有效地捕获了局部3D结构和空间特征,但它们缺乏对语义信息的理解。
-
为了整合这两个互补的分支,我们首先使用与几何分支相同的点子采样过程处理逐点语义特征F3D。接下来,我们通过通道级联的方式将语义特征和几何特征融合在一起,表示为F 3D fuse = Concat(F 3D sub, G) ∈ RM×(C1+C2)。最后,融合的特征经过几个集合抽象块[30],这使得2D语义和3D几何信息之间的跨模态交互得以共同建模。所得到的全局特征代表了我们的语义几何表征,它被用于动作预测。
-
平移是回归,其余均为分类。(与Q function一样)
补充:
Set Abstraction 是一种在深度学习中用于处理点云数据的技术,特别是在处理3D对象识别和分割任务时。点云数据是由一系列在三维空间中的点组成的,每个点通常包含位置信息(x, y, z坐标)和可能的其他特征。处理这种数据的一个挑战是它们没有固定的结构,因为点是随机分布的。
Set Abstraction 的目的是从原始的无序点云中提取出有意义的局部特征,并将这些局部特征组合起来,以便网络可以更好地理解和处理3D对象。这个过程通常包括以下几个步骤:
采样(Sampling):首先,从点云中随机选择一些点作为中心点。这些点将用于定义局部区域。
分组(Grouping):对于每个中心点,在其周围的一定半径内找到其他点,并将这些点分组。这个半径定义了局部区域的大小。
特征提取(Feature Extraction):对于每个局部区域,提取区域内点的特征。这通常通过多层感知机(MLP)来实现,MLP可以学习到每个点的特征表示。
池化(Pooling):在提取了局部区域的特征后,使用池化操作(如最大池化或平均池化)来聚合这些特征,得到一个固定大小的特征向量,这个向量代表了整个局部区域的特征。
重复:这个过程对于所有选定的中心点重复进行,最终得到一组固定大小的特征向量,这些向量可以被用来进行进一步的处理,例如分类或分割。
通俗来说,Set Abstraction 就像是一个智能的“点云编辑器”,它从杂乱无章的点云中挑选出一些“代表点”,然后围绕这些代表点探索周围的环境,提取出有用的信息,并将这些信息整合起来,形成一个更加结构化和有用的数据表示,以便后续的分析和处理。
视觉锚定模块(Visual Grounding Module)的核心功能是将语言描述中的特定属性与图像中相应的视觉区域相对应。在机器人操控的背景下,这意味着模型需要理解语言指令并将其与场景的视觉特征结合起来,以便机器人能够识别和操作具有特定属性的对象。
在论文中,视觉锚定模块的实现灵感来自于MaskCLIP [69] 和 PROGRAMPORT [70]。以下是该模块的详细解释:
预训练的2D模型:首先,使用一个预训练的2D视觉模型(例如CLIP的视觉编码器)来从多视角图像中提取特征。
语言编码:如果任务提供了语言指令,使用预训练的语言模型(例如CLIP的语言编码器)来获得语言指令的编码。
特征对齐:通过两个1×1的卷积层,将视觉特征和语言特征投影到同一空间。这两个卷积层的权重分别初始化为来自CLIP模型的视觉和语言嵌入层的权重。
生成密集掩码:使用上述卷积层将语言编码与视觉特征相结合,生成一个密集的掩码,该掩码包含了图像中与语言指令相对应的所有区域。 这个掩码是通过将语言编码的空间广播(tile)到视觉特征的空间维度,然后与视觉特征进行逐元素乘法运算得到的。
特征图对齐:将生成的密集掩码与原始视觉特征图相结合,产生对齐的特征图。这些对齐的特征图包含了与语言指令相关的丰富语义信息,并且与视觉场景紧密对齐。
融合特征:最终,这些对齐的特征图将与其他视觉特征一起被进一步处理,以生成机器人操控任务的语义几何表征(SGR)。
思考不足之处
- 多模态 Transformer,能够以更优雅的方式对各种模态进行编码和融合。
- 线性插值来生成每个点的rgb特征效果可能没那么好。
- 仅使用encoder来编码点云,丢掉了很多细节。
2. Leveraging Locality to Boost Sample Efficiency in Robotic Manipulation
摘要和结论
旨在通过改进视觉和动作表示来提高样本效率。SGRv2的核心设计是引入了一个关键的归纳偏差——动作局部性(action locality),它认为机器人的动作主要受目标物体及其与局部环境的交互影响。
引言
在机器学习中,引入归纳偏差是提高样本效率的一种标准策略。例如,卷积神经网络(CNNs)[4, 5]在每一层中都嵌入了空间层次结构和平移等变性,而循环神经网络(RNNs)[6]和长短期记忆网络(LSTMs)[7]在其架构中加入了时间依赖性。
在机器人操控领域,一个关键的归纳偏差是动作局部性,它认为机器人的动作主要由目标物体及其与周围局部环境的关系决定。然而,以前关于机器人操控表示学习的研究并没有有效地利用这种偏差。通常,这些研究[8, 9, 10, 11]旨在开发一种全局表示,涵盖整个场景,然后直接用于预测机器人动作。这些方法表现出了显著的低样本效率。
模型框架
- Encoder-Decoder Architecture. 请注意,如 PointNeXt [15] 中设计的,输出特征仅依赖于相对坐标,确保逐点特征 fi 对输入坐标的平移变换保持不变。这个逐点特征作为我们位置感知动作建模的基石。
- Relative Position Predictions 使用逐点特征,我们可以预测每个点的动作。我们的关键见解是,末端执行器通常在每个执行阶段向靠近特定对象的目标移动。因此,预测目标相对于每个点的位移是很自然的。对于关键帧,我们通过pi+∆p(fi)表示关键帧动作apos的位置分量,其中pi和fi分别是第i个点的坐标和逐点特征,∆p是多层感知器(MLP)
- Weighted Average Actions. 在获得逐点动作预测后,我们需要将这些预测整合到一个聚合的动作预测中。我们采用了一个简单但有效的策略,即加权平均。对于每个组成部分,包括位置(在密集控制中被分解为方向和大小)、旋转、夹爪开启状态和碰撞指示器,我们为每个点使用一个学习到的权重w*(fi)。这里,w*表示每个组成部分的单独MLP(应用softmax进行归一化)。这种设计背后的动机是,点云内只有少数区域对于完成任务至关重要。例如,在拾取立方体的任务中,位于立方体上的点比周围桌子上的点更具信息量。通过学习这些权重,我们使聚合预测集中于最具预测性的局部区域,从而提高整体准确性和样本效率。
- Dense Supervision.。为了提高局部特征的学习效率,我们采用了密集监督策略。这种方法将聚合动作预测和逐点动作预测都整合到损失函数中,表示为L* = Laggregated * + Lpoints * 。为了计算Laggregated * 和Lpoints * ,我们采用相同的损失公式和相同的真实标签。密集监督为所有点提供反馈,使模型能够更有效地学习局部特征。
实验
我们可视化特定于点的权重,并意外发现具有高权重(由红点表示)的点与对象的可供性对齐
思考不足之处
- 一步一步的预测必定会导致累计误差
- 相比于现在大火的diffusion policy,损失了动作的多模态性。