Point Cloud Transformer

Point Cloud Transformer

由于点云的不规则性和无序性,我们不能直接使用卷积来进行处理点云。与此同时,注意力机制是一种排序不变、不依赖点连接算子,十分适合点云的操作。

点云的整体架构

在这里插入图片描述

点云整体架构由输入嵌入部分——>注意力层——>分割分类构成。其设计主要参考了PointNet和Transformer的设计理念。

输入嵌入部分

输入嵌入部分主要由两种形式构成:

  • 点嵌入(只考虑单点嵌入,使用共享的神经网络,将点云映射到高维空间)
  • 领域嵌入(不只是考虑单点情况,还是用KNN算法得到领域信息,进而通过领域嵌入方式将点云映射到高维空间)

该层的目的在于把点云映射到高维空间。如上图,则是映射为128维度。是否可以使用其他方法 改进 KNN

注意力层

在这里插入图片描述

PCT注意力层使用了两种模型:

  • “传统”的self-attention
  • offset-attention(结合上述的self-attention和图中卷积的拉普拉斯算子)

如图,输入嵌入进行升维成为128维度,进行线性变换分别生成self-attention中的Q、K、V 矩阵。为了保存维度一致,对K进行转置。进行Softmax标准化(方便求解梯度),得到Attention Map(也就是下图中的五角星)。点乘生成V矩阵得到Attenion Feature。运用offset-attention生成LBR。

在这里插入图片描述

分类分割头部

参考PointNet设计:

  • 分类
    • 使用上述获得Attention Feature,进行Pooling(一般情况还是使用Max Pooling)得到全局特征,进行全连接Dropout(防止过拟合),输出分类结果。
  • 分割
    • Attention Feature(如何得到局部特征)得到局部特征,结合分类得到的全局特征。拼接局部特征全局特征,进行全连接Dropout特征。

在这里插入图片描述

PCT分类

论文中把PCT分成了三类:

  • NPCT
  • SPCT
  • PCT

PCT使用的三种数据库

  • 分类:ModelNet40
  • 分割:ShapeNet
  • 语义分割: S3DIS

论文精读

  1. 点云和NLP领域上不太相关,PCT主要做出了以下的修改:

    1. 基于坐标的输入嵌入模块 —— 解决点云的无序性

    2. 优化 offer-attention 模块 —— 优化之前Transformer的self-attention层,使用offset。把点云看作图、把浮点数矩阵。看作attention map

      作用:

      1. 相对坐标更为可靠
      2. 图卷积学习中,Laplacian 矩阵更为有效
    3. 邻近嵌入模块 —— 加强局部的效果,而不只是考虑单点无关联情况

  2. 相关工作

    1. Transformer in NLP —— NLP 使用广泛,但是其处理的为位置相关,语义有序的情况
    2. Transformer in images —— ViT 中局部补丁和基本语义信息,提出 邻近嵌入模块 ——可以捕获局部信息并获取语义信息。
    3. Point-based deep learning —— pointnet点云提出后,处理方式层出不穷。比如:拓展、限制算子,体素化处理(把点云变成有序的,从而进行卷积操作),使用attention。本文提出Transformer而不是使用self-attention作为辅助。
  3. PCT的表示:

    1. PCT
      1. 对input进行升维操作(更好描述语义关联),除了去除position embedding这一步骤,其他的都与Transformer理念相同。
      2. 输入——>4次 attention层操作 ——>拼接全部的attention层——>使用MP-AP得到全局特征
      3. 分类
        • MP-AP——> LBRD——>LBRD(D:dropout(防止过拟合))——> Linear
      4. 分割
        • 使用one-hot解码到64维度,运用LBRD——>LBR——>Linear(Normal estimate)
    2. NPCT
      1. 把点云当作整个句子,把点看作句子中的一个单词。结合self-attention
      2. self-attention Q、K、V 模型,最后进行标准化。——>解决点云无序、不规则问题。采用SS
    3. Offset-Attention
      1. 使用 offset-attention代替 self-attention(加入了Laplacian运算)
      2. 先进行softmax之后进行l1-norm(传统的是先进行规范化,之后进行softmax)
    4. 增强局部特征表示的邻近嵌入
      1. 之前点云的操作考虑了全局变量,但是没有考虑到局部变量
      2. 其主要包含两大块——>两个LBR层和两个SG(Sampling and Grouping)。其中LBR是标配,SG是扩大特征提取的感受野。SG主要使用欧氏距离的knn
      3. SG
        1. 使用 the farthest point sampling (FPS) to downsample 。(FPS何方神圣,可以改进?)
          FPS博客详细介绍
        2. 使用 knn

后续补充

参考

Jittor官方解读PCT

Jittor官方实现

PCT论文地址

  • 0
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: PCT代表Point Cloud Transformer(点云变换器),它是一种深度学习模型,专门用于处理点云数据。点云数据是由大量点组成的三维几何形状数据,常用于机器人视觉、自动驾驶、3D建模等领域。 PCT模型基于自注意力机制(self-attention)和Transformer模型架构,通过对点云数据进行编码和解码,实现对点云数据的语义理解和特征提取,能够有效地解决点云数据噪声、不完整性等问题,提高点云数据的处理效率和准确性。 ### 回答2: PCT是指点云变换器(PCT: Point Cloud Transformer),是一种新颖的点云数据生成方法。点云是由立体激光雷达或者其他三维扫描仪捕获的点云数据集合,被广泛应用于各个领域,例如自动驾驶、虚拟现实等。PCT的出现为点云数据的处理、分类和分割提供了全新的解决方案。 PCT方法是基于自监督学习的方法,其强大的点云编码器通过学习局部和全局特征来提取点云的语义信息。与传统方法相比,PCT以一种新的、更加高效的方式从点云中检索出高级语义特征,同时还可以通过训练神经网络进行大量扩展,使得其具有很好的鲁棒性和泛化能力。 PCT的优点在于可以高效轻便地处理大规模、高维度和密集的点云数据,并能够支持多种类型的数据变换,例如旋转、缩放和翻转等。此外,PCT还可进行大规模的点云数据推理和预测,可以在实践中进行语义分割、目标识别和对象重建等操作。 总之,PCT是一种创新的点云变换器,其结构和算法使得对点云数据的处理更加快速、高效和准确,并为自动驾驶、虚拟现实、机器人感知等领域提供了更广泛的应用前景。随着近年来人工智能技术的快速发展,PCT将在点云领域中成为一个具有强大竞争力的解决方案。 ### 回答3: PCT是一种新型的点云处理算法,全称为Point Cloud Transformer,中文名为点云变换器。PCT算法是在Transformer模型的基础上针对点云数据进行的改良,能够有效地处理点云数据中的特征信息。 PCT算法的核心思想是使用自注意力机制来学习点云数据的特征表示。自注意力机制是指对于输入的点云数据,PCT算法会根据点与点之间的关系计算每个点与周围点的关联程度,从而将各点的特征信息进行整合,得到一个更为全面的点云特征表示。 与传统的点云处理算法相比,PCT算法具有如下优点: 1. 对不同大小的点云数据进行自适应处理,不需要预先指定输入点云的大小。 2. 具有更好的灵活性和可扩展性,适用于不同场景下的点云数据处理。 3. 在处理稀疏点云数据时,PCT算法能够充分利用点云数据的局部性质,提升点云数据的处理精度。 总之,PCT算法是一种新兴的点云数据处理算法,具有能够高效处理不同尺度的点云数据、充分利用数据局部性质、提升处理精度等优点,对点云数据的处理能力有较大的提升。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值