![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/eb1a75faef1167af1d29f818f060436e.png)
正文
1.INTRODUCTION
开篇就diss了PointNet提出后,很多大牛都提出了一些在局部区域上的修改,但是仍然没有提取到点与点之间的信息。
另一类方法,则是可以直接将不规则的点云作为输入的深度网络,即PointNet系的网络。
PointNet,通过独立地处理每个点,能实现置换不变性(permutation invariance)。随后使用一个对称函数(symmetric function)来聚合特征。
之后,一些基于PointNet的改进网络会考虑点的局部特征,而不是分开处理。这样可以让网络提取到局部特征,提高模型的性能。
然而这类算法,在处理局部区域的点的时候为了保证置换不变性,而导致过于独立。这样会忽视点之间的几何相关信息,导致丢失一部分局部特征信息。
————————————————
原文链接:https://blog.csdn.net/hongbin_xu/article/details/85258278
2.EdgeConv
提出了EdgeConv来解决这个问题
这个东西是个什么玩意呢。
这得先大致明白GNN的原理,通过邻居和自我更新自己的特征信息。
针对PointNet中缺少局部信息的缺点,不仅考虑这个点当前的feature,还考虑了在当前的feature空间内,与当前点距离最近的K个点的feature。
3.多个EdgeConv叠加的原理
通过GNN的原理,通过第一层可以学习到附近邻居信息,第二层可以学习到附近的附近,多层可以覆盖更远的语义信息。
4.Dynamic Graph Update
每次都要选特征空间中最近的K个点,能够更好的让信息在相似的结构之间传播。
问题:每次更新如何使得相似的点在一起学习了呢?