point tranformer是一个很经典的网络,文章链接:https://arxiv.org/pdf/2012.09164.pdf
区别于其他的一些点云架构,point transformer最大的创新就是将position embedding加入特征值里面,会提高效果。
在论文里面实现的是将三维或者二维的position坐标使用全连接拉到和特征向量相同的维度上,然后在通过一个公式来进行embedding之间的运算。公式如下:
把公式从里到外拆解着解释:
ψ(xi):原始的特征信息
ψ(xj):邻居特征信息
δ:坐标信息,在网络中是用全连接将二维或者是三维的坐标信息增加到和feature embedding相同的特征维度
ρ:就是softmax,softmax应该很简单了,其原理就是将某个维度映射到一个概率区间。说的白话点,就是某个维度的经过softmax之后,那个维度的数值加起来等于1。
yi:就是经过point transformer后输出的embedding
point transformer解析
最新推荐文章于 2024-08-12 08:29:12 发布
Point Transformer是一种在点云处理中引入位置编码的网络结构,通过自注意力机制结合坐标信息提升效果。它使用全连接将坐标拉到特征维度,然后通过softmax运算。在PyTorch Geometric库中,Point Transformer的实现包括下采样和上采样过程,利用插值法处理邻居关系,以构建点云的多层次表示。
摘要由CSDN通过智能技术生成