CompletionFormer:用于深度补全的 Transformer 网络!CVPR 2023
论文地址:CVPR 2023
开源代码:https://github.com/youmi-zym/CompletionFormer
摘要
CompletionFormer 结合卷积神经网络(CNN)和 Vision Transformer,提出了一种联合卷积注意力和 Transformer 块(JCAT),用于深度补全任务。该方法将卷积的局部连接性和 Transformer 的全局上下文结合到一个单一模型中,从而在户外 KITTI 和室内 NYUv2 数据集上超越了现有的基于 CNN 的方法,并在效率上显著优于纯 Transformer 方法。