***引言***
1. Seedformer中使用的方法是基于“矢量自注意力”的Point Transformer
2. PCT中引入了点云变换,增强分类和分割的性能;使用的是堆叠注意力模块;
3. DPCT聚合点和通道自注意力模型,从语义上捕获位置和通道更丰富的上下文依赖关系;
4. PTT、PTTR用于目标跟踪;
5. 3DETR是一种端到端Transformer的目标检测模型;
本文方法:MPCT
基于带有残差网络的多尺度局部邻域来实现,设计思想与“Rethinking network design and local geometry in point cloud"一致,只是工作重点是使用Transformer。
利用自注意力的排列不变性来避免点云的不规则性所带来的问题;
使用新型自注意力机制来分析多阶段局部邻域并生成多尺度特征;
1. 点增强方法,对点云中每个点的位置信息进行处理,将点坐标升级为高级几何信息;
2. 将点变换后的特征输入到自注意力模块,可以建立当前特征之间的潜在联系,然后可以提取新的不变特征,且复杂度降低O(ND)
3. 在每个特征生成步骤之后使用残差结构,构建有效的内存高效网络帮助特征传播;