【小白深度教程 1.4】手把手教你复现 CompletionFormer 深度补全网络(含代码解读)
在上一节中,我们展示了如何利用训练好的 BP-Net 进行深度补全:
【小白深度教程 1.3】使用 BP-Net 深度补全网络,进行 KITTI 稠密点云和图像融合(含 Python 代码)
这节我们将手把手教你,如何训练和使用 CompletionFormer。
1. 介绍
CompletionFormer 结合卷积神经网络(CNN)和 Vision Transformer,提出了一种联合卷积注意力和 Transformer 块(JCAT),用于深度补全任务。该方法将卷积的局部连接性和 Transformer 的全局上下文结合到一个单一模型中,从而在户外 KITTI 和室内 NYUv2 数据集上超越了现有的基于 CNN 的方法,并在效率上显著优于纯 Transformer 方法。
具体解析可以查看: