对于RandLA-Net来说,它是先利用LoceSE编码邻域的特征,学习点云的空间结构,然后利用Attentive Pool进行自注意力聚合特征,并且扩大了网络的感受野,添加了扩展残差模块,现在很多网络都是添加扩展残差模块,为了防止参数过拟合。现在很多新的文章都在编码完邻域特征之后对其进行自注意力加权,并且融合学习的邻域的局部特征,像DLA-Net,和今天介绍的这篇LFA-Net,其实这篇文章与DLA-Net非常像,本人感觉不同的只是它学习邻域和构造自注意力权重的方法不一样,它在学习完注意力加权后的特征和进行聚合完的特征进行了一个融合,这是其他网络没有考虑的。
LAF-Net分为三个模块,是LGA(局部图注意力)+LAA(局部特征融合注意力)+FA(特征融合),它是在建筑数据集上做的实验,以下是我分别对这三个模块的分析。
LGA上半部分是根据坐标构成相对坐标,然后从3维特征经过共享MLP学习一个d维的特征,与下面KNN搜索的邻域特征进行点乘,进行一个softmax之后组成权重对邻域特征进行注意力加权。这部分主要是学习邻域特征并进行一个自注意力加权,但是他和DLA不同的一点是它加权的特征只是全局特征,不是邻域+全局特征。
LAA模块主要是利用上述学习到的特征和学习的邻域局部特征进行一个拼接,融合局部和邻域特征,然后进行一个自注意力的加权聚合,将点进行进一步的聚合。
特征融合模块主要是融合LGA和LAA的特征,目的应该是为了更好提高分割结果。
LFA-Net整体网络结构主要是LGA+LAA+FA模块,并且添加了扩展残差模块,目的是为了防止参数过拟合,优化模型。它的网络框架是5层编码层+5层解码层,使用的采样方法是随机采样,进行下采样。然后近邻插值进行上采样还原特征。
它这个做的消融实验主要是去利用池化等方法代替LGA或者LAA做的消融实验,证明此模块都是必须的。以上是我对LFA局部特征融合模块的理解,如有不对,请多多指正!!!