DGCNN (Dynamic Graph CNN for Learning on Point Clouds,动态图卷积网络)

1. 解决问题

1.置换(旋转)不变性、输入顺序不变性

2.平移不变性

3.尺度不变性 ?

4.

2. 关键思想

DGCNN 认为 pointnet++ 属于静态图卷积:

pointnet++ 根据点对的欧氏距离构建图,然后在每一层进行图粗化操作。使用最远点采样选取点作为下一层的输入。这样使得每一层的图不断减小,但是图的结构没有改变。

DGCNN 的动态图,是因为在特征空间取k近邻,每层计算的特征都不相同,因此相当于每一层的图都具有不同的顶点。

实验证明,特征空间中的距离可以更好的拉近相同语义点的距离。这样不仅学习到了点云的几何信息,而且学习如何对点云进行分组。

 

DGCNN 边卷积的核心分为边缘函数和特征聚合:

PointNet : 直接对单个点提取特征,然后使用max函数聚合特征。

MoNet : 使用高斯核(g)在局部坐标系中计算中心点的特征。并使用求和进行特征聚合。

由于pointNet没有考虑局部特征,而MoNet 失去了全局形状和结构表示。

DGCNN,使用点坐标和点的距离作为输入,同时捕获局部和全局信息,然后使用max pooling:

 

但是,这样只具有部分的平移不变性:

3.系统结构:

 

4.改进方向

缺点:

by LDGCNN

1.转换网络(T-net)增加了网络尺寸

2.领域内深度特征的相似性,使其不能很好的生成有价值的边

3.训练参数过多很难找到一个最好的参数

 

 

 

LDGCNN 

改进:

1.去除空间转换网络

2.连接分层特征

3. 冻结特征提取网络,使用训练的特征向量重新训练分离器,避免在大量参数的情况下陷入局部最优解。

1.去除空间变换网络

,作者发现MLP可以大致的保证旋转不变性,而不需要空间转换网络。作者认为 一个64个输出通道的MLP,相当与是对点云的64个观测方向(有点像3视图),因此可以保证旋转不变性。

2.多层特征连接

1) 领域特征的相似性,会导致边向量趋近于0

2)由于每层的图结构不一样,使用当前层的图结构可以从以前的特征中学习到新的特征。

3)可以避免在深层网络中的梯度消失。

网络结构:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值