YOLOv8中间特征层可视化

一、优势和作用

YOLOv8 或类似深度学习目标检测模型中使用中间特征层进行可视化有以下优点:

1. 理解网络的学习过程

中间特征层可视化可以帮助我们深入了解模型在各个阶段如何提取和处理特征:

  • 低层特征层: 通常捕获边缘、纹理、颜色等基本特征。
  • 中层特征层: 逐渐开始学习更加复杂的模式,比如形状和局部结构。
  • 高层特征层: 专注于语义信息,能够识别完整目标或其上下文。

通过观察这些特征,可以清楚地看到模型如何逐步将输入图像转化为有意义的表示。

2. 调试和改进网络结构

  • 发现问题: 可视化中间特征层可以帮助识别模型中可能存在的问题,例如:
    • 特定通道的激活值过低(信息丢失)。
    • 特征图尺寸缩小过快(过度下采样)。
    • 某些通道在高层依然保留低层特征(特征冗余)。
  • 优化设计: 通过可视化结果,可以调整网络结构,例如:
    • 增加或减少卷积层。
    • 修改特征融合方式(如 FPN、PAN 等)。
    • 改善注意力机制或特征选择模块。

3. 检测模型的注意力区域

通过中间层的特征图,我们可以观察模型对图像中不同区域的关注程度:

  • 是否关注到目标的关键区域(如物体边缘、轮廓)。
  • 是否忽略了背景干扰或非相关信息。
  • 这对改进模型性能和理解检测误差来源非常重要。

4. 验证特定模块的有效性

  • 注意力机制: 如果模型中使用了模块(如 Squeeze-and-Excitation、CBAM、OmniAttention),中间层可视化可以帮助验证这些模块是否在正确的位置起作用。
  • 频率选择模块: 可视化能显示不同通道是否成功分离低频和高频信息。
  • 上下文特征融合: 通过特征图观察不同尺度的融合是否完整。

5. 探索通道的重要性

通过中间层的每个通道特征图,可以:

  • 评估各通道的激活强度。
  • 找出对最终目标检测任务贡献较大的通道。
  • 根据这些信息,调整通道数量或设计通道选择机制。

6. 检测小目标的特征

  • 小目标检测: 中间特征层通常包含更细粒度的信息,有助于观察小目标是否被网络正确捕获。
  • 如果小目标在低层次特征中就未被充分关注,可能需要调整感受野或特征融合模块。

。。。。。

 二 、在YOLOv8中间层可视化的实现(分通道)

1. 必须要有个训练完的模型

2. 通过detect进行中间层可视化

这是我的detect.py脚本,重点要将 visualize=True设为True

import warnings
warnings.filterwarnings('ignore')
from ultralytics import YOLO



if __name__ == '__main__':
    model = YOLO('runs/train/yolov8/weights/best.pt') # select your model.pt path
    model.predict(source='trash/test1',
                  imgsz=640,
                  project='runs/detect/feature',
                  name='yolov8',
                  save=True,
                  # conf=0.2,
                  # iou=0.7,
                  # agnostic_nms=True,
                  visualize=True, # visualize model features maps
                  # line_width=2, # line width of the bounding boxes
                  # show_conf=False, # do not show prediction confidence
                  # show_labels=False, # do not show prediction labels
                  # save_txt=True, # save results as .txt file
                  # save_crop=True, # save cropped images with results
                )

 3. 接下来运行(以一张侧视图展示为例)

这张为原始图像:

这张为detect后的图像:

接下来以YOLOv8的原始网络为例
 

# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLOv8 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect

# Parameters
nc: 80 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  n: [0.33, 0.25, 1024] # YOLOv8n summary: 225 layers,  3157200 parameters,  3157184 gradients,   8.9 GFLOPs
  s: [0.33, 0.50, 1024] # YOLOv8s summary: 225 layers, 11166560 parameters, 11166544 gradients,  28.8 GFLOPs
  m: [0.67, 0.75, 768] # YOLOv8m summary: 295 layers, 25902640 parameters, 25902624 gradients,  79.3 GFLOPs
  l: [1.00, 1.00, 512] # YOLOv8l summary: 365 layers, 43691520 parameters, 43691504 gradients, 165.7 GFLOPs
  x: [1.00, 1.25, 512] # YOLOv8x summary: 365 layers, 68229648 parameters, 68229632 gradients, 258.5 GFLOPs

# YOLOv8.0n backbone
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2  这就是可视化中间层的stage0
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4 这就是可视化中间层的stage1
  - [-1, 3, C2f, [128, True]]  # 这就是可视化中间层的stage2
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8 这就是可视化中间层的stage3,后面以此类推
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, Conv, [512, 3, 2]] # 5-P4/16
  - [-1, 6, C2f, [512, True]]
  - [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32
  - [-1, 3, C2f, [1024, True]]
  - [-1, 1, SPPF, [1024, 5]] # 9

# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  - [-1, 3, C2f, [512]] # 12

  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  - [-1, 3, C2f, [256]] # 15 (P3/8-small)

  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 12], 1, Concat, [1]] # cat head P4
  - [-1, 3, C2f, [512]] # 18 (P4/16-medium)

  - [-1, 1, Conv, [512, 3, 2]]
  - [[-1, 9], 1, Concat, [1]] # cat head P5
  - [-1, 3, C2f, [1024]] # 21 (P5/32-large)

  - [[15, 18, 21], 1, Detect, [nc]] # Detect(P3, P4, P5)

4. 以浅层也就是前几层为例(在这里,每一层特征图有多少通道数就会生成多少张特征图)

第0层(16个通道数,所以生成了16张图)

 第3层(有32个通道数,所以生成了32张特征图)

5. 但是大家会发现 ,这样生成的中间层特征图可视化,很难去看,层越深图像越来越抽象,比较难观察,比如以第8层为例

6.所以接下来我们将每一层的通道数进行通道融合,每一层生成一个特征图

三、在YOLOv8中间层可视化的实现(合并通道,分通道共同实现)

1. 添加代码(ultralytics/utils/plotting.py)

def feature_visualization_merged(x, module_type, stage, merge_mode="mean", save_dir=Path("runs/detect/exp")):
    """
    Visualize merged feature maps of a given model module during inference.

    Args:
        x (torch.Tensor): Features to be visualized.
        module_type (str): Module type.
        stage (int): Module stage within the model.
        merge_mode (str, optional): Mode to merge channels. Defaults to "mean". Options: "mean", "sum", "max".
        save_dir (Path, optional): Directory to save results. Defaults to Path('runs/detect/exp').
    """
    for m in {"Detect", "Segment", "Pose", "Classify", "OBB", "RTDETRDecoder"}:  # all model heads
        if m in module_type:
            return
    if isinstance(x, torch.Tensor):
        _, channels, height, width = x.shape  # batch, channels, height, width
        if height > 1 and width > 1:
            # Save path
            save_dir.mkdir(parents=True, exist_ok=True)
            f = save_dir / f"stage{stage}_{module_type.split('.')[-1]}_merged_features.png"

            # Merge channels
            if merge_mode == "mean":
                merged_feature = x[0].mean(dim=0).cpu()  # Channel-wise mean
            elif merge_mode == "sum":
                merged_feature = x[0].sum(dim=0).cpu()  # Channel-wise sum
            elif merge_mode == "max":
                merged_feature, _ = x[0].max(dim=0)  # Channel-wise max
                merged_feature = merged_feature.cpu()
            else:
                raise ValueError(f"Unsupported merge_mode: {merge_mode}. Choose from 'mean', 'sum', 'max'.")

            # Visualize
            plt.figure(figsize=(6, 6))
            plt.imshow(merged_feature, cmap="viridis")  # Use colormap for visualization
            plt.axis("off")
            plt.title(f"Stage {stage}: {module_type} (Merged: {merge_mode})")
            plt.savefig(f)
            plt.close()

2. 继续添加代码(ultralytics/nn/tasks.py)

在tasks.py中找到

class BaseModel(nn.Module):

下面的
def predict(self, x, profile=False, visualize=False, augment=False, embed=None):

下面的这句话

    if visualize:
                feature_visualization(x, m.type, m.i, save_dir=visualize)

在这个if语句里面添加如下

            if visualize:
                feature_visualization(x, m.type, m.i, save_dir=visualize)
                feature_visualization_merged(x, m.type, m.i, save_dir=visualize, merge_mode="sum") # 添加的代码

最后在tasks找到from ultralytics.utils.plotting import feature_visualization,在后面引用上feature_visualization_merged

from ultralytics.utils.plotting import feature_visualization,feature_visualization_merged

3. 在这里解释一下merge_mode=""可选择的参数,分别有mean、sum、max

平均平滑综合所有通道信息提供全局视角,平衡各通道响应难以突出某些显著特征
求和叠加所有通道的响应值强调区域的总响应,适合模式分析易受高响应通道的主导,可能过曝
最大值突出每像素点的最强通道响应值关注显著特征,适合边界和热点分析忽略弱响应信息,可能丢失细节

如何选择聚合模式?(由于我在第8层修改了模块,想看模块对特征图的作用与修改前的哪个好,所以选择了sum)

  • 分析整体特征:选择 mean,可以平衡所有通道的贡献。
  • 寻找热点区域:选择 max,更容易发现显著激活的区域。
  • 关注响应强度:选择 sum,分析特征图的总响应。

4. 话不多说展示

继续运行detect.py,生成如下特征图,带merged的就是融合后的

原图:

 第0层

第3层

第8层:

对比展示

评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值