Point Transformer v1:把Vector Self-attention应用到点云任务

[ICCV 2021] Point Transformer
实验代码: https://github.com/Pointcept/Pointcept
论文地址: https://arxiv.org/pdf/2012.09164.pdf


Abstract

将自注意力网络迁移到3D点云处理。

一、Introduction

将自注意力应用于3D点云是非常自然的,因为点云本质上是嵌入在3D空间中的集合。研究了自注意力操作符的形式,将自注意力机制应用于每个点周围的局部区域,以及在网络中对相对位置进行编码。得到完全居于自注意力和逐点操作的网络。

二、Related Work

Transformer and self-attention.

局部注意力+矢量注意力(Vector Self-attention)+位置编码

三、Self-attention Networks

1、背景:两种注意力机制的对比

2、Point transformer层:

δ \delta δ是位置编码,出现在两个位置

3、位置编码:

定义: δ = θ ( p i − p j ) \delta = \theta(p_{i}-p_{j}) δ=θ(pipj)
δ \delta δ由两个线性层和一个ReLU组成的MLP构成。
位置编码在两个分支都很重要

4、网络结构:

Backbone structure. Transition down. Transition up. Output head.

四、Experiments

S3DIS + ModelNet40 + ShapeNet

Ablation Study:
Number of neighbors. Softmax regularization. Position encoding. Attention type.
邻居16个最好,Position Encoding采用相对位置最好,Vector Attention最好,Softmax是有效的。

五、Conclusion

自注意力操作符本质上是一个集合操作符,除了在这种概念上的兼容性之外,Transformer在点云处理方面表现出了非凡的效果。下一步开发新的操作符和网络设计,并将Transformer应用于其他任务。

  • 12
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值