YOLOv11v10v8使用教程: YOLOv11入门到入土使用教程
YOLOv11改进汇总贴:YOLOv11及自研模型更新汇总
《HVI: ANewColor Space for Low-light Image Enhancement》
一、 模块介绍
论文链接:https://arxiv.org/pdf/2502.20272
代码链接:https://github.com/Fediory/HVI-CIDNet/blob/master/net/LCA.py
论文速览:
低光图像增强 (LLIE) 是一项重要的计算机视觉任务,旨在从损坏的低光图像中恢复详细的视觉信息。许多现有的 LLIE 方法都基于标准 RGB (sRGB) 空间,由于 sRGB 中固有的高颜色敏感度,这通常会产生颜色偏差和亮度伪影。虽然使用色相、饱和度和值 (HSV) 色彩空间转换图像有助于解决亮度问题,但它会引入明显的红色和黑色杂色伪影。为了解决这个问题,我们为 LLIE 提出了一个新的色彩空间,即水平/垂直强度 (HVI),由极化 HS 图和可学习强度定义。前者对红色坐标强制执行小距离以消除红色伪影,而后者压缩低光区域以去除黑色伪影。为了充分利用色度和强度信息,进一步引入了一种新的颜色和强度解耦网络 (CIDNet),以学习 HVI 空间中不同照明条件下的准确光度映射功能。基准测试和消融实验的综合结果表明,使用 CIDNet 提出的 HVI 色彩空间在 10 个数据集上优于最先进的方法。
总结:本文介绍其中HV_LCA模块的使用方法。
⭐⭐本文二创模块仅更新于付费群中,往期免费教程可看下方链接⭐⭐
二、二创融合模块
2.1 相关二创模块及所需参数
该模块可如图加入到C2f、C3、C3K2与自研等模块中,代码见群文件,所需参数如下。
C2f-变式模块 所需参数:(c1, c2, n, shortcut, g, e)
C3-变式模块 所需参数:(c1, c2, n, shortcut, g, e)
C3k2-变式模块 所需参数:(c1, c2, n, c3k, e, g, shortcut)
RCRep2A及变式模块 所需参数:(c1, c2, shortcut, e)
2.2更改yaml文件 (以自研模型为例)
打开更改ultralytics/cfg/models/11路径下的YOLOv11.yaml文件,替换原有模块。
# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect
# ⭐⭐Powered by https://blog.csdn.net/StopAndGoyyy, 技术指导QQ:2668825911⭐⭐
# Parameters
nc: 80 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'
# [depth, width, max_channels]
n: [0.50, 0.25, 1024] # summary: 377 layers, 2,249,525 parameters, 2,249,509 gradients, 8.7 GFLOPs/258 layers, 2,219,405 parameters, 0 gradients, 8.5 GFLOPs
s: [0.50, 0.50, 1024] # summary: 377 layers, 8,082,389 parameters, 8,082,373 gradients, 29.8 GFLOPs/258 layers, 7,972,885 parameters, 0 gradients, 29.2 GFLOPs
m: [0.50, 1.00, 512] # summary: 377 layers, 20,370,221 parameters, 20,370,205 gradients, 103.0 GFLOPs/258 layers, 20,153,773 parameters, 0 gradients, 101.2 GFLOPs
l: [1.00, 1.00, 512] # summary: 521 layers, 23,648,717 parameters, 23,648,701 gradients, 124.5 GFLOPs/330 layers, 23,226,989 parameters, 0 gradients, 121.2 GFLOPs
x: [1.00, 1.50, 512] # summary: 521 layers, 53,125,237 parameters, 53,125,221 gradients, 278.9 GFLOPs/330 layers, 52,191,589 parameters, 0 gradients, 272.1 GFLOPs
# n: [0.33, 0.25, 1024]
# s: [0.50, 0.50, 1024]
# m: [0.67, 0.75, 768]
# l: [1.00, 1.00, 512]
# x: [1.00, 1.25, 512]
# YOLO11n backbone
backbone:
# [from, repeats, module, args]
- [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
- [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
- [-1, 2, RCRep2A, [128, False, 0.25]]
- [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
- [-1, 4, RCRep2A, [256, False, 0.25]]
- [-1, 1, Conv, [512, 3, 2]] # 5-P4/16
- [-1, 4, HV_LCA, []]
- [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32
- [-1, 2, RCRep2A, [1024, True]]
- [-1, 1, SPPF_WD, [1024, 7]] # 9
# YOLO11n head
head:
- [[3, 5, 7], 1, align_3In, [256, 1]] # 10
- [[4, 6, 9], 1, align_3In, [256, 1]] # 11
- [[-1, -2], 1, Concat, [1]] #12 cat
- [-1, 1, RepVGGBlocks, []] #13
- [-1, 1, nn.Upsample, [None, 2, "nearest"]] #14
- [[-1, 4], 1, Concat, [1]] #15 cat
- [-1, 1, Conv, [256, 3]] # 16
- [13, 1, Conv, [512, 3]] #17
- [13, 1, Conv, [1024, 3, 2]] #18
- [[16, 17, 18], 1, Detect, [nc]] # Detect(P3, P4, P5)
# ⭐⭐Powered by https://blog.csdn.net/StopAndGoyyy, 技术指导QQ:2668825911⭐⭐
2.3 修改train.py文件
创建Train脚本用于训练。
from ultralytics.models import YOLO
import os
os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE'
if __name__ == '__main__':
model = YOLO(model='ultralytics/cfg/models/xy_YOLO/xy_yolov1-ConvNeXt.yaml')
# model = YOLO(model='ultralytics/cfg/models/11/yolo11l.yaml')
model.train(data='./datasets/data.yaml', epochs=1, batch=1, device='0', imgsz=320, workers=1, cache=False,
amp=True, mosaic=False, project='run/train', name='exp',)
在train.py脚本中填入修改好的yaml路径,运行即可训练,数据集创建教程见下方链接。