原论文摘要
带有大内核注意力模块的视觉注意力网络,在一系列基于视觉的任务中,其性能明显优于视觉变换器。然而,这些 LKA 模块中的深度卷积层但是,这些 LKA 模块中的深度卷积层在计算和内存占用方面会产生四次方随着卷积核大小的增大卷积核的大小。为了缓解这些问题,并为了缓解这些问题,并在 VAN 的注意力模块中使用超大卷积核为了缓解这些问题,并在 VAN 的注意力模块中使用超大卷积核,我们提出了一系列大分离核注意力模块(Large Separa-内核注意模块,称为 LSKA。LSKA深度卷积层的二维卷积核为层叠的水平和垂直一维内核。与标准的 LKA 设计不同的是,所提出的分解方法能够与标准的 LKA 设计不同的是,所提出的分解方法可以在注意力模块中直接使用具有大内核的深度卷积层。核的深度卷积层,而无需任何额外的块,拟议的 LSKA 模块在中的拟议 LSKA 模块可以达到与标准性能,而且计算复杂度和内存占用更低。内存占用。我们还发现,拟议的 LSKA 设计随着内核大小的增加,VAN 会更偏向于物体的形状而不是纹理。
LSK理论详解可以参考链接:论文地址
LSK代码可在这个链接找到:代码地址
本文在YOLOv8中引入LSK,代码已经整理好了,跟着文章复制粘贴,即可直接运行