【CNN】——涨点模块SE,CBAM,CA对比

code:https://github.com/chenjun2hao/dler.collection

涨点模块的对比

对比测试

1. 参数对比

这里采用同样的输入,同样的输入,输出通道,同样的中间过渡通道。统计三个模块的浮点数计算量与参数量。

Modulemacs/flopsparams
SE40993792.08192.0
CBAM56706560.08290.0
CA95923200.012848.0

2. 效果对比

来自:https://arxiv.org/pdf/2103.02907.pdf
在这里插入图片描述

SECBAMCA都是在计算机视觉领域中使用的注意力机制。它们可以用于提取图像中的重要特征,并帮助改善图像分类、目标检测和图像分割等任务的性能。 1. SE(Squeeze-and-Excitation)注意力机制:SE注意力机制是一种通道注意力机制,旨在通过自适应地学习通道权重来增强有用的特征通道。它由两个主要步骤组成:压缩和激励。在压缩步骤中,通过全局平均池化操作来降低每个通道的维度。在激励步骤中,使用一个全连接层来生成每个通道的权重向量,并将其应用于输入特征图上的每个通道。这样,SE注意力机制可以自适应地调整每个通道的重要性。 2. CBAM(Convolutional Block Attention Module)注意力机制:CBAM注意力机制是一种空间和通道注意力机制的组合。它由两个子模块组成:通道注意力模块和空间注意力模块。通道注意力模块通过学习每个通道的重要性来调整特征图的通道维度。空间注意力模块则通过学习每个像素的重要性来调整特征图的空间维度。CBAM注意力机制可以同时关注特征图的通道和空间维度,以提取最具代表性的特征。 3. CA(Channel Attention)注意力机制:CA注意力机制也是一种通道注意力机制,类似于SE注意力机制。它通过全局平均池化操作来降低每个通道的维度,并使用一个全连接层来生成每个通道的权重向量。然后,将权重向量应用于输入特征图上的每个通道,以调整其重要性。与SE注意力机制不同的是,CA注意力机制没有使用激励步骤,而是直接使用全连接层生成权重向量。 这些注意力机制在深度学习模型中广泛应用,可以帮助模型更好地理解和利用输入数据中的关键信息。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值