💡💡💡本文独家改进:EfficientViT助力RT-DETR ,替换backbone,包括多头自注意力(MHSA)导致的大量访存时间,注意力头之间的计算冗余,以及低效的模型参数分配,进而提出了一个高效ViT模型EfficientViT
推荐指数:五星
RT-DETR魔术师专栏介绍:
https://blog.csdn.net/m0_63774211/category_12497375.html
✨✨✨魔改创新RT-DETR
🚀🚀🚀引入前沿顶会创新,助力RT-DETR
🍉🍉🍉基于ultralytics优化,与YOLO完美结合
1.EfficientViT
EfficientViT: Memory Efficient Vision Transformer with Cascaded Group Attention