PCAM: Product of Cross-Attention Matrices for Rigid Registration of Point Clouds

PCAM是一种用于点云刚性配准的新方法,通过交叉注意力机制融合低级几何信息和高级上下文信息来找到对应点。它包括点匹配模块和点对过滤模块,利用层间注意力矩阵来构建匹配特征,并通过SVD估计刚性变换。点匹配模块通过点卷积神经网络生成注意力矩阵,全局注意力矩阵则结合了所有层的注意力信息。置信度估计模块用于过滤错误匹配。实验验证了PCAM的有效性。
摘要由CSDN通过智能技术生成

零、论文概要

标题:PCAM:点云刚性配准的交叉注意矩阵乘积
链接paper.
作者:Anh-Quan Cao,Gilles Puy,Alexandre Boulch,Renaud Marlet
机构:Valeo.ai, Paris, France, Inria, Paris, France†, LIGM, Ecole des Ponts, Univ Gustave Eiffel, CNRS, Marne-la-Vall´ee, France
备注:ICCV21

一、论文摘要

部分重叠点云的刚性配准是一个长期存在的问题,通常通过两个步骤来解决:(a)寻找对应点之间的对应关系;(b)筛选对应,只保留最可靠的来估计变化。本文提出了PCAM利用cross-attention机制:允许混合低级几何信息和高级上下文信息来找点对应;允许在每一层的点云之间交换上下文信息,从而网络在重叠区域内构建更好的匹配特征。

二、论文的方法

  1. 方法概述
    overview of method
    点云 P P P和点云 Q Q Q被送进Point Matching Module [g: ( R N × 3 , R M × 3 ) → ( R N × M , R N × M ) (\mathbb{R}^{N×3},\mathbb{R}^{M×3})\rightarrow(\mathbb{R}^{N×M},\mathbb{R}^{N×M}) R×3R×3R×R×],获取了两类映射关系 m Q ~ : P → Q \tilde{m_{Q}}:P\rightarrow Q mQ~:PQ m P ~ : P → Q \tilde{m_{P}}:P\rightarrow Q mP~:PQ(提供了 P P P Q Q Q之间的对应点对),接下来都被送进Point-pair Filtering Module[h( R × 6 → ( 0 , 1 ) × 1 \mathbb{R}^{×6}\rightarrow{(0,1)}^{×1} R×6(0,1)×1)],该模块将提供了每个匹配点对的置信度,最后通过 S V D SVD SVD求解加权最小二乘来估计刚性变换。

  2. 点匹配(Point Matching)[主要创新点]

    点云 P P P和点云 Q Q Q作为输入,在每一层 l = 1 , ⋯ , L l=1,\cdots ,L l获得注意力矩阵 A P Q ( l ) A_{PQ}^{(l)} APQ(l) A Q P ( l ) A_{QP}^{(l)} AQP(l)[Layer-wise Cross-attention Matrices],而这 L L L个注意力矩阵将构成全局的注意矩阵 A P Q ( ∗ ) A_{PQ}^{(*)} APQ() A Q P ( ∗ ) A_{QP}^{(*)} AQP()[Global Attention Matrices],再通过全局的注意力矩阵获得 m Q ~ \tilde{m_{Q}} mQ~ m P ~ \tilde{m_{P}} mP~
    (1). Layer-wise Cross-attention Matrices
    F P F_{P} FP F Q F_{Q} FQ分别为点云 P P P和点云 Q Q Q的特征向量,两片点云的特征被送入点卷积神经网络* e e *(由三个残差块组成,每个残差块又包含两个FKAConv.子层),生成新的特征向量 e ( F P ) e(F_{P}) e(FP) e ( F Q ) e(F_{Q}) e(F)(特征维度减半)。接下来用新的特征向量 e ( F P ) e(F_{P}) e(FP) e ( F Q ) e(F_{Q}) e(F)计算获得我们的注意力矩阵 A P Q ( l ) A_{PQ}^{(l)} APQ(l) A Q P ( l ) A_{QP}^{(l)} AQP(l),公式如下:
    ( A P Q ( l ) ) i j = e a i j s ∑ k = 1 M e a i k s , ( A Q P ( l ) ) i j = e a i j s ∑ k = 1 N e a i k s (A_{PQ}^{(l)})_{ij} = \frac{e^{\frac{a_{ij}}{s}}}{\sum_{k=1}^{M}e^{\frac{a_{ik}}{s}}}, (A_{QP}^{(l)})_{ij} = \frac{e^{\frac{a_{ij}}{s}}}{\sum_{k=1}^{N}e^{\frac{a_{ik}}{s}}} APQ(l)ij=k=1MsaiksaijAQP(l)ij=k=1Nsaiksaij
    其中,
    a i j = e ( F P ) i e ( F Q ) j T ∥ e ( F P ) i ∥ 2 ∥ e ( F Q ) j ∥ 2 , a_{ij} = \frac{e(F_{P})_{i}e(F_{Q})_{j}^{T}}{\left \|e(F_{P})_{i} \right \|_{2}\left \|e(F_{Q})_{j} \right \|_{2}}, aij=e(FP)i2e(FQ)j2e(FP)ie(FQ)jT
    在每一层,我们拼接每个输入点的新特征以及在连接另一个点云中的最佳对应点特征,具体公式如下所示:
    E P = [ e ( F P ) , A P Q ( l ) e ( F Q ) ] ϵ R N × c ( l ) E_{P}=[e(F_{P}),A_{PQ}^{(l)}e(F_{Q})]\epsilon \mathbb{R}^{N×c^{(l)}} EP[e(FP)APQ(l)e(F)]ϵRN×c(l) E Q = [ e ( F Q ) , A Q P ( l ) T e ( F P ) ] ϵ R M × c ( l ) E_{Q}=[e(F_{Q}),A_{QP}^{(l)T}e(F_{P})]\epsilon \mathbb{R}^{M×c^{(l)}} E[e(F)AQP(l)Te(FP)]ϵR×c(l)
    其中 E P E_{P} EP E Q E_{Q} E l l l层的输出、 l + 1 l+1 l+1层的输入。
    最后我们将会提取出L个注意矩阵 ( A P Q ( 1 ) , ⋯ , A P Q ( L ) ) (A_{PQ}^{(1)},\cdots,A_{PQ}^{(L)}) (APQ(1)APQ()) ( A Q P ( 1 ) , ⋯ , A Q P ( L ) ) (A_{QP}^{(1)},\cdots,A_{QP}^{(L)}) (AQP(1)AQP())
    (2). Global Attention Matrices
    本文通过简单的点态乘法将每一层的注意力矩阵组合起来,如下所示:
    A P Q ( ∗ ) = A P Q ( 1 ) ⨀ ⋯ ⨀ A P Q ( L ) A_{PQ}^{(*)}=A_{PQ}^{(1)}\bigodot \cdots\bigodot A_{PQ}^{(L)} APQ()APQ(1)APQ()
    这样做的目的有:(1)每层注意力矩阵的特征伴随着层数的增加使用的视野或比例是不断提升的,只有在所有尺度上的特征都相似时,才能获得我们需要的匹配点,(2)允许反向传播从损失到每一层。
    (3). Soft and Sparse Maps
    两种匹配点的标准方法软映射和稀疏映射。
    软映射:
    m Q ~ ( p i ) = ∑ j = 1 M ( A P Q ( ∗ ) ) i , j q j ∑ k = 1 M ( A P Q ( ∗ ) ) i , k \tilde{m_{Q}}(p_{i})= \frac{\sum_{j=1}^{M}(A_{PQ}^{(*)})_{i,j}q_{j}}{\sum_{k=1}^{M}(A_{PQ}^{(*)})_{i,k}} mQ~(pi)k=1M(APQ())i,kj=1M(APQ())i,jqj
    稀疏映射:
    m Q ~ ( p i ) = q j , w h e r e   j ( ∗ ) = a r g m a x ( A P Q ( ∗ ) ) i , j j \tilde{m_{Q}}(p_{i})= q_{j},where {j}^{(*)}=\underset{j}{argmax(A_{PQ}^{(*)})_{i,j}} mQ~(pi)qjwhere j()jargmax(APQ())i,j

  3. 置信估计(Confidence Estimation)
    虽然作者通过前面的模块找到了点云 P P P和点云 Q Q Q间的映射关系,但是仍在存在错误的匹配,因此我们需要过滤这些误匹配。
    作者通过连接向量构成 [ p i T , m Q ~ ( p i ) T ] T ϵ R 6 [p_{i}^{T},\tilde{m_{Q}}(p_{i})^{T}]^{T}\epsilon \mathbb{R}^{6} [piTmQ~(pi)T]TϵR6,然后将其送入置信估计模块[h( R × 6 → ( 0 , 1 ) × 1 \mathbb{R}^{×6}\rightarrow{(0,1)}^{×1} R×6(0,1)×1)],从而得到置信分数 ω i \omega_{i} ωi

  4. 损失函数
    (1). Attention Loss
    (2). Confidence Loss

三、实验

四、读后感想

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值