【计算机视觉】简述对LFA-Net的理解

对于RandLA-Net来说,它是先利用LoceSE编码邻域的特征,学习点云的空间结构,然后利用Attentive Pool进行自注意力聚合特征,并且扩大了网络的感受野,添加了扩展残差模块,现在很多网络都是添加扩展残差模块,为了防止参数过拟合。现在很多新的文章都在编码完邻域特征之后对其进行自注意力加权,并且融合学习的邻域的局部特征,像DLA-Net,和今天介绍的这篇LFA-Net,其实这篇文章与DLA-Net非常像,本人感觉不同的只是它学习邻域和构造自注意力权重的方法不一样,它在学习完注意力加权后的特征和进行聚合完的特征进行了一个融合,这是其他网络没有考虑的。
LAF-Net分为三个模块,是LGA(局部图注意力)+LAA(局部特征融合注意力)+FA(特征融合),它是在建筑数据集上做的实验,以下是我分别对这三个模块的分析。
在这里插入图片描述
LGA上半部分是根据坐标构成相对坐标,然后从3维特征经过共享MLP学习一个d维的特征,与下面KNN搜索的邻域特征进行点乘,进行一个softmax之后组成权重对邻域特征进行注意力加权。这部分主要是学习邻域特征并进行一个自注意力加权,但是他和DLA不同的一点是它加权的特征只是全局特征,不是邻域+全局特征。
在这里插入图片描述
在这里插入图片描述
LAA模块主要是利用上述学习到的特征和学习的邻域局部特征进行一个拼接,融合局部和邻域特征,然后进行一个自注意力的加权聚合,将点进行进一步的聚合。
在这里插入图片描述
特征融合模块主要是融合LGA和LAA的特征,目的应该是为了更好提高分割结果。
在这里插入图片描述
LFA-Net整体网络结构主要是LGA+LAA+FA模块,并且添加了扩展残差模块,目的是为了防止参数过拟合,优化模型。它的网络框架是5层编码层+5层解码层,使用的采样方法是随机采样,进行下采样。然后近邻插值进行上采样还原特征。
在这里插入图片描述

它这个做的消融实验主要是去利用池化等方法代替LGA或者LAA做的消融实验,证明此模块都是必须的。以上是我对LFA局部特征融合模块的理解,如有不对,请多多指正!!!

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

面向发疯编程@Lyx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值