前言 全深度是深度神经网络的标志。但更多的深度意味着更多的顺序计算和更高的延迟。ParNetAttention使用并行子网络而不是一层层叠加。这有助于在保持高性能的同时有效减少深度。 ParNetAttention理论详解可以参考链接:论文地址 ParNetAttention代码可在这个链接找到:代码地址 本文在YOLOv9中引入GAM(全维度动态卷积),实现了大幅度涨点,代码已经整理好了,跟着文章复制粘贴,即可直接运行 改进前的结果: 改进后的结果,从各项评价指标看出高效涨点 目录 前言 🎓一、YOLOv9原始版本代码下载 🍀🍀1.yolov9模型结构图 🍀🍀2.环境配置 🎓二、ParNetAttention代码 🎓三、在YOLOv9添加ParNetAttention代码 🍀🍀1.在modules目录下添加第二章的ParNetAttention代码 🍀🍀2.在__init__.py文件导入ParNetAttention模块 🍀🍀3.在yolo.py文件导入改进的模块 🎓四、yaml文件修改 <