YOLOv10/YOLOv9/YOLOv8/YOLOv7/YOLOv5系列改进| 目录一览表



💡魔改YOLO系列算法,助力涨点,助力科研。通过添加注意力机制SE/CBAM/CoordAtt/ECA /SimAM/CrissCrossAttention/ SKAttention/GAMAttention/S2-MLPv2/NAM等;网络轻量化方法通过更换主干特征提取网络为MobileNetV3/ShuffleNetV2/EfficientNetv2/Ghostnet/深度可分离卷积/PP-LCNet/mobileone/Ghostnetv2/ELAN等;优化原yolo算法损失函数为EIoU/SIoU/Alpha-IoU/olyLoss / VarifocalLoss / GeneralizedFLoss / QualityFLoss / FL等,助力检测涨点;优化非极大值抑制算法为Soft-nms/DIoU NMS等;构建“Transformer+CNN”结构拟补原卷积网络缺乏长距离建模能力,融入Bottleneck/EfficientFormer/Swin Transformer/Swin Transformer v2.0/Cotnet等,助力涨点;改进特征融合方式为BIFPN/ASFF等,强化不同尺度融合能力;改进激活函数为ACON/FReLU/ReLU/RReLU/Hardtanh/ReLU6/Sigmoid/Tanh/Mish/Hardswish/ELU/CELU/GLU/GELU/Hardshrink/LeakyReLU/LogSigmoid/Softplus/Softshrink/PReLU/Softmin等几十种激活函数;优化锚框生成,改为K-Means++;空间金字塔池化改进SPP/SPPF/ASPP/SimSPPF/BasicRFB/SPPCSPC/SPPFCSPC等;其他还有添加小目标检测层/ACMIX/CSPCM/SPD/C3HB/CB2D/ConvMix/DenseOneC/DenseOne/CReToNeXt/MVB/QARepVGG/RepVGGBlock/ConvNeXtV2/fasternet等等方法。详情关注后私信留言咨询
所有改进代码百度链接:https://pan.baidu.com/s/1glx4v71i6KPVlGtdZLQ1og 提取码:私信后获取。


YOLO系列算法改进方法 | 目录一览表

💡🎈☁️1. 添加SE注意力机制
💡🎈☁️2.添加CBAM注意力机制
💡🎈☁️3. 添加CoordAtt注意力机制
💡🎈☁️4. 添加ECA通道注意力机制
💡🎈☁️5. 改进特征融合网络PANET为BIFPN
💡🎈☁️6. 增加小目标检测层
💡🎈☁️7. 损失函数改进
💡🎈☁️8. 非极大值抑制NMS算法改进Soft-nms
💡🎈☁️9. 锚框K-Means算法改进K-Means++
💡🎈☁️10. 损失函数改进为SIOU
💡🎈☁️11. 主干网络C3替换为轻量化网络MobileNetV3
💡🎈☁️12. 主干网络C3替换为轻量化网络ShuffleNetV2
💡🎈☁️13. 主干网络C3替换为轻量化网络EfficientNetv2
💡🎈☁️14. 主干网络C3替换为轻量化网络Ghostnet
💡🎈☁️15. 网络轻量化方法深度可分离卷积
💡🎈☁️16. 主干网络C3替换为轻量化网络PP-LCNet
💡🎈☁️17. CNN+Transformer——融合Bottleneck Transformers
💡🎈☁️18. 损失函数改进为Alpha-IoU损失函数
💡🎈☁️19. 非极大值抑制NMS算法改进DIoU NMS
💡🎈☁️20. Involution新神经网络算子引入网络
💡🎈☁️21. CNN+Transformer——主干网络替换为又快又强的轻量化主干EfficientFormer
💡🎈☁️22. 涨点神器——引入递归门控卷积(gnConv)
💡🎈☁️23. 引入SimAM无参数注意力
💡🎈☁️24. 引入量子启发的新型视觉主干模型WaveMLP(可尝试发SCI)
💡🎈☁️25. 引入Swin Transformer
💡🎈☁️26. 改进特征融合网络PANet为ASFF自适应特征融合网络
💡🎈☁️27. 解决小目标问题——校正卷积取代特征提取网络中的常规卷积
💡🎈☁️28. ICLR 2022涨点神器——即插即用的动态卷积ODConv
💡🎈☁️29. 引入Swin Transformer v2.0版本
💡🎈☁️30. 引入10月4号发表最新的Transformer视觉模型MOAT结构
💡🎈☁️31. CrissCrossAttention注意力机制
💡🎈☁️32. 引入SKAttention注意力机制
💡🎈☁️33. 引入GAMAttention注意力机制
💡🎈☁️34. 更换激活函数为FReLU
💡🎈☁️35. 引入S2-MLPv2注意力机制
💡🎈☁️36. 融入NAM注意力机制
💡🎈☁️37. 结合CVPR2022新作ConvNeXt网络
💡🎈☁️38. 引入RepVGG模型结构
💡🎈☁️39. 引入改进遮挡检测的Tri-Layer插件 | BMVC 2022
💡🎈☁️40. 轻量化mobileone主干网络引入
💡🎈☁️41. 引入SPD-Conv处理低分辨率图像和小对象问题
💡🎈☁️42. 引入V7中的ELAN网络
💡🎈☁️43. 结合最新Non-local Networks and Attention结构
💡🎈☁️44. 融入适配GPU的轻量级 G-GhostNet
💡🎈☁️45. 首发最新特征融合技术RepGFPN(DAMO-YOLO)
💡🎈☁️46. 改进激活函数为ACON
💡🎈☁️47. 改进激活函数为GELU
💡🎈☁️48. 构建新的轻量网络—Slim-neck by GSConv(2022CVPR)
💡🎈☁️49. 模型剪枝、蒸馏、压缩
💡🎈☁️50. 超越ConvNeXt!Conv2Former:用于视觉识别的Transformer风格的ConvNet
💡🎈☁️51.融入多分支空洞卷积结构RFB-Bottleneck改进PANet构成新特征融合网络
💡🎈☁️52.将YOLOv8中的C2f模块融入YOLOv5
💡🎈☁️53.融入CFPNet网络中的ECVBlock模块,提升小目标检测能力
💡🎈☁️54.改进激活函数为ReLU、RReLU、Hardtanh、ReLU6、Sigmoid、Tanh、Mish、Hardswish、ELU、CELU等
💡🎈☁️55.融入美团最新QARepVGG
💡🎈☁️56.引入Contextual Transformer模块(sci期刊创新点之一)
💡🎈☁️127.引入迈向参数高效的动态卷积改进YOLO算法
💡🎈☁️128.使用ICCV2023超轻量级且高效的动态上采样器( DySample)改进yolov8中的上采样
💡🎈☁️129.ICCV2019 内容感知功能重组 (CARAFE)改进yolov8-neck中的上采样
💡🎈☁️130.采用DEA-Net网络中的内容引导注意力(CGA)改进特征融合网络Neck
💡🎈☁️56.利用shift-wise conv对C2f进行改进
💡🎈☁️132.利用HCANet中具有全局和局部信息的注意力机制CAFM进行DEA-Net中content-guided attention fusion
💡🎈☁️133.2024年最新MobileNetV4轻量化算法作为YOLO算法的主干特征提取网络
💡🎈☁️134.采用轻量级的上下文和空间特征校准网络改进算法
💡🎈☁️135.借鉴CVPR2024中的StarNet网络星形操作将输入映射到高维非线性特征空间的能力改进算法


一、注意力机制添加方法

一般解决问题为:图像待测目标与背景相似,目标难以辨识的检测难点
💡🎈☁️1. 添加SE注意力机制
💡🎈☁️2.添加CBAM注意力机制
💡🎈☁️3. 添加CoordAtt注意力机制
💡🎈☁️4. 添加ECA通道注意力机制
💡🎈☁️23. 引入SimAM无参数注意力
💡🎈☁️31. CrissCrossAttention注意力机制
💡🎈☁️32. 引入SKAttention注意力机制
💡🎈☁️33. 引入GAMAttention注意力机制
💡🎈☁️35. 引入S2-MLPv2注意力机制
💡🎈☁️36. 融入NAM注意力机制

二、网络轻量化方法

一般解决问题为:轻量化网络,适应应用部署
💡🎈☁️11. 主干网络C3替换为轻量化网络MobileNetV3
💡🎈☁️12. 主干网络C3替换为轻量化网络ShuffleNetV2
💡🎈☁️13. 主干网络C3替换为轻量化网络EfficientNetv2
💡🎈☁️14. 主干网络C3替换为轻量化网络Ghostnet
💡🎈☁️15. 网络轻量化方法深度可分离卷积
💡🎈☁️16. 主干网络C3替换为轻量化网络PP-LCNet
💡🎈☁️40. 轻量化mobileone主干网络引入
💡🎈☁️48. 构建新的轻量网络—Slim-neck by GSConv(2022CVPR)
💡🎈☁️49. 模型剪枝、蒸馏、压缩

三、优化损失函数

一般解决问题为:原损失函数的缺陷不足
💡🎈☁️7. 损失函数改进
💡🎈☁️10. 损失函数改进为SIOU
💡🎈☁️18. 损失函数改进为Alpha-IoU损失函数
💡🎈☁️54.改进激活函数为ReLU、RReLU、Hardtanh、ReLU6、Sigmoid、Tanh、Mish、Hardswish、ELU、CELU等

四、非极大值抑制

一般解决问题为:同类别目标相互重叠导致错漏检问题
💡🎈☁️8. 非极大值抑制NMS算法改进Soft-nms
💡🎈☁️19. 非极大值抑制NMS算法改进DIoU NMS

五、“Transformer+CNN”结构

一般解决问题为:拟补全卷积网络缺乏长距离建模能力
💡🎈☁️17. CNN+Transformer——融合Bottleneck Transformers
💡🎈☁️21. CNN+Transformer——主干网络替换为又快又强的轻量化主干EfficientFormer
💡🎈☁️25. 引入Swin Transformer
💡🎈☁️29. 引入Swin Transformer v2.0版本
💡🎈☁️50. 超越ConvNeXt!Conv2Former:用于视觉识别的Transformer风格的ConvNet
💡🎈☁️56.引入Contextual Transformer模块(sci期刊创新点之一)

六、特征融合方式改进

一般解决问题为:目标尺度变化多样的问题
💡🎈☁️5. 改进特征融合网络PANET为BIFPN
💡🎈☁️26. 改进特征融合网络PANet为ASFF自适应特征融合网络
💡🎈☁️51.融入多分支空洞卷积结构RFB-Bottleneck改进PANet构成新特征融合网络

七、优化锚框生成

一般解决问题为:原K-Means算法缺陷
💡🎈☁️9. 锚框K-Means算法改进K-Means++

八、激活函数改进

💡🎈☁️34. 更换激活函数为FReLU
💡🎈☁️46. 改进激活函数为ACON
💡🎈☁️54. 改进激活函数为ReLU、RReLU、Hardtanh、ReLU6、Sigmoid、Tanh、Mish、Hardswish、ELU、CELU等

九、空间金字塔池化层改进

💡🎈☁️SPP/SPPF/ASPP/SimSPPF/BasicRFB/SPPCSPC/SPPFCSPC (可私信获取)

  • 34
    点赞
  • 565
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人工智能算法研究院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值