好的文章推荐:https://blog.csdn.net/qq_45228845/article/details/126339793?spm=1001.2014.3001.5506
好的文章推荐:https://blog.csdn.net/hanseywho/article/details/125641137?spm=1001.2014.3001.5506
好的文章推荐:https://blog.csdn.net/controlourself/article/details/126315788?spm=1001.2014.3001.5506
论文地址:https://arxiv.org/abs/2206.04670
代码地址:https://github.com/guochengqian/pointnext
本人是个刚入门的菜鸡,自己写一下总结供自己以后复习。
这篇文章是2022年发布在NeurIPS上的
创作目的
作者发现,最新的一些SOTA方法性能提高的很大一部分是由于改进了培训策略,即数据扩充和优化技术,以及增加了模型大小,而非架构创新。在这项工作中,我们重新审视了经典且广泛使用的网络PointNet++,并发现其全部潜力尚待挖掘。
创新点
本文的创新点提出了以下几点:
- 提出了一套更有效的训练策略。
- 我们发现无论是使用更多的SA模块还是使用更大的channel size都不会显着提高准确性,却反而导致thoughput显著下降。这主要是梯度消失和过度拟合导致的。 为此本文提出了Inverted Residual MLP (InvResMLP,反向残差MLP)模块