文章目录
InceptionNeXt是今年颜水成团队发布的一篇论文,将ConvNext和Inception的思想融合,即IncepitonNeXt。将InceptionNeXt加入到YoloV8的主干网络会出现什么奇迹呢?我们一起见证吧!
![在这里插入图片描述](https://img-blog.csdnimg.cn/94ce99ad9ba2440e99135b93f6f6b263.jpeg#pic_center)
论文翻译
摘要
https://arxiv.org/pdf/2303.16900.pdf
受 Vision Transformer 长程依赖关系建模能力的启发,大核卷积最近被广泛研究和采用,以扩大感受野和提高模型性能,如采用7×7深度卷积的杰出工作connext。虽然这种深度算子只消耗少量的flop,但由于其较高的访存开销,极大地影响了模型在功能强大的计算设备上的效率。例如,ConvNeXt-T与ResNet-50具有类似的FLOPs,但在A100 gpu上进行全精度训练时,仅实现了60%的吞吐量。虽然减小ConvNeXt的核大小可以提高速度,但会导致性能的显著下降。目前还不清楚如何在保持性能的同时加快基于大核的CNN模型的速度。为解决该问题,受概念启发,本文提出将大核深度卷积分解为沿通道维度的四个平行分支,即小方形核、两个正交带核和一个单位映射。通过这种新的Inception深度卷积,构建了一系列网络,即IncepitonNeXt,不仅享有高吞吐量,而且保持有竞争力的性能。例如,InceptionNeXt-T实现了比convnext - t高1.6倍的训练吞吐量,并在ImageNet- 1K上实现了0.2%的top-1精度提高。我们期