point transformer笔记

该博客探讨了如何在点云数据中引入自我注意力机制。作者提出了一种方法,通过计算点云中各点的k、q、v值,并结合位置编码,利用多层感知机(MLP)和softmax函数确定点的重要性。点云首先经过远点采样和特征变换,再通过反卷积操作恢复信息。该方法有助于识别点云中的关键点,提高处理效率。
摘要由CSDN通过智能技术生成

如何在点云中引入注意力机制

首先我们知道self-attention最主要的有k,q,v三个值,而点云又自带position,故只需要找出点云的k,q,v,然后按照self-attention的模式来计算重要程度即可。

在这里插入图片描述

文章作者就提出了这样一个公式,其中X为该点的k个邻居,xj为第j个邻居,而ϕ(xi)为该点xi的q值,ψ(xj) 为邻居xj的k值,两者相减再加上δ(位置编码),得到的值进行一个mlp(即γ函数)得到attention中的权重,再利用ρ(例如softmax)进行归一化处理,而α(xj)为value值,加上位置编码后再与之前的值相乘就得到了点的重要程度。

在这里插入图片描述
该模块是先输入p个点的坐标以及特征,经过线性层(全连接层,其每一个神经元与上一个神经元相连实现对前一层的线性组合),进入pointtransformer,最后再通过线性层并与之前的输入相加得到输出。
在这里插入图片描述

该模块先利用最远点采样取出k个点,使p1变为p2,与此同时对p1个点的所有feature经过mlp得到p1个特征向量,再使用最大池化,输出p2个特征。

在这里插入图片描述
在该模块由于要将之前舍去的点反卷回来,作者提出在立体空间中做相信的差补(不懂,需要再看看)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值