YOLOv8模型改进2【增加CBAM注意力】

一、CBAM注意力机制简介

CBAM注意力机制(Convolutional Block Attention Module)。它结合了空间注意力机制(Spatial Attention Module)以及通道注意力机制(Channel Attention Module),以此来提升图片分类以及目标检测的结果。

它与SEnet的区别是,SEnet注意力机制只关注通道信息,CBAM注意力机制在通道信息的基础上还增加了对于空间信息的处理。

CBAM结构图如下图所示:(输入特征经过通道注意力机制模块之后,再经过空间注意力机制模块,得到输出特征
在这里插入图片描述
通道注意力机制模块的结构图如下图所示:
在这里插入图片描述

空间注意力机制模块的结构图如下图所示:
在这里插入图片描述

CBAM模块集成到ResBlock中的结构图如下所示:
在这里插入图片描述

目标检测任务中,CBAM模块在MS COCO验证集上的表现如下:
在这里插入图片描述
目标检测任务中,CBAM模块在VOC 2007测试集上的表现如下:
在这里插入图片描述

【注意:1】具体的细节请移步论文:https://arxiv.org/pdf/1807.06521.pdf
【注意:2】GIthub代码:https://github.com/Jongchan/attention-module/blob/master/MODELS/cbam.py

二、增加CBAM注意力机制到YOLOv8模型上

(写在前面:增加CBAM注意力机制的方法与增加SE的方法是一样的,区别在于,YOLOv8原来就自带CBAM模块,所以修改的地方会少一些)

**修改的还是下面的四个地方

【1: …/ultralytics/nn/modules/conv.py

conv.py中该增加CBAM模块的地方都已经增加了,可以不用管,或者你检查一下,如果缺少CBAM的代码,请加入以下内容,然后在__all__ =中声明一下,具体的可以对照一下这篇文章,加深一下印象:**https://blog.csdn.net/A__MP/article/details/136515383?spm=1001.2014.3001.5502

class CBAM(nn.Module):
    """Convolutional Block Attention Module."""

    def __init__(self, c1, kernel_size=7):
        """Initialize CBAM with given input channel (c1) and kernel size."""
        super().__init__()
        self.channel_attention = ChannelAttention(c1)
        self.spatial_attention = SpatialAttention(kernel_size)

    def forward(self, x):
        """Applies the forward pass through C1 module."""
        return self.spatial_attention(self.channel_attention(x))


class Concat(nn.Module):
    """Concatenate a list of tensors along dimension."""

    def __init__(self, dimension=1):
        """Concatenates a list of tensors along a specified dimension."""
        super().__init__()
        self.d = dimension

    def forward(self, x):
        """Forward pass for the YOLOv8 mask Proto module."""
        return torch.cat
  • 9
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
YOLOv8中添加注意力CBAM的步骤如下: 1. 在yolov8_cbam.yaml文件中添加CBAM注意力机制的配置信息。 2. 在common.py文件中配置CBAM注意力机制的参数。 3. 在yolo.py文件中添加CBAM注意力机制的代码。 4. 训练模型并测试效果。 具体步骤如下: . 在yolov8_cbam.yaml文件中添加CBAM注意力机制的配置信息: ```yaml model: ... attention: CBAM ... ``` 2. 在common.py文件中配置CBAM注意力机制的参数: ```python class CBAM(nn.Module): def __init__(self, channels, reduction=16): super(CBAM, self).__init__() self.avg_pool = nn.AdaptiveAvgPool2d(1) self.max_pool = nn.AdaptiveMaxPool2d(1) self.fc = nn.Sequential( nn.Linear(channels, channels // reduction, bias=False), nn.ReLU(inplace=True), nn.Linear(channels // reduction, channels, bias=False), nn.Sigmoid() ) self.conv = nn.Conv2d(channels, channels, kernel_size=1, stride=1, padding=0) def forward(self, x): avg_out = self.avg_pool(x) max_out = self.max_pool(x) avg_out = self.fc(avg_out.squeeze()).unsqueeze(2).unsqueeze(3) max_out = self.fc(max_out.squeeze()).unsqueeze(2).unsqueeze(3) out = avg_out + max_out out = self.conv(out) out = torch.sigmoid(out) out = x * out return out ``` 3. 在yolo.py文件中添加CBAM注意力机制的代码: ```python from models.common import CBAM class YOLOLayer(nn.Module): def __init__(self, ...): ... self.cbam = CBAM(channels) def forward(self, ...): ... x = self.cbam(x) ... return x ``` 4. 训练模型并测试效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值