YOLOV4 -- SE注意力机制

YOLOV4 – SE注意力机制

YOLOV4与YOLOV3的区别主要介绍了V3和V4之间的区别,但是仔细研究代码Tensorflow2.0—YOLO V4-tiny网络原理及代码解析(一)- 特征提取网络会发现其实在V4中还多出一个trick,那就是注意力机制!

一、概念

YOLOv4中引入注意力机制,就是希望网络能够自动学出来图片需要注意的地方。比如人眼在看一幅画的时候,不会将注意力平等地分配给画中的所有像素,而是将更多注意力分配给人们关注的地方。从实现的角度来讲,注意力机制就是通过神经网络的操作生成一个掩码mask,mask上的值一个打分,重点评价当前需要关注的点。
注意力机制可以分为:

  1. 通道注意力机制:对通道生成掩码mask,进行打分,代表是senet, Channel Attention Module。
  2. 空间注意力机制:对空间进行掩码的生成,进行打分,代表是Spatial Attention Module 。
  3. 混合域注意力机制:同时对通道注意力和空间注意力进行评价打分,代表的有BAM, CBAM。

在V4源代码中,是使用了SE注意力机制,下面主要介绍该机制原理和实现代码~

二、原理

在这里插入图片描述
在上述图片中可以看到,左边是没有进行SE注意力机制操作的,而右侧是进行SE注意力机制操作的。
这里的X通常是使用经过yolo网络最终得到的predict head(tiny版本有两个,非tiny版本有三个),以416x416为输入图片为例,tiny版本最后会生成两个predict head,以第二个低分辨率predict head为例(shape:13,13,512)
首先,先进行一次GlobalAveragePooling2D(全局池化),输入shape为13x13x512,经过GAP转换后,变成了大小为 1 × 1 × 512 的输出值,也就是每一层 h × w 会被平均化成一个值。
然后会进行一次FC层,后接一个relu激活函数,但是channels会变成(channel / ratio)
接着,会再一次接一个FC层,后接一个sigmoid激活函数,channels会回到C。
最后一步,会将输入predict head(13x13x512)与上述得到的(1x1x512)进行矩阵全乘,之所以是全乘不是矩阵相乘,那是因为这样可以得到不同通道重要性不一样的 feature map。

三、实现代码

Tensorflow2.0—YOLO V4-tiny网络原理及代码解析(一)- 特征提取网络中代码为例:

def se_block(input_feature, ratio=16, name=""):
	channel = input_feature._keras_shape[-1]
	# input_feature的shape为13, 13, 512
	se_feature = GlobalAveragePooling2D()(input_feature) #1,1,512
	se_feature = Reshape((1, 1, channel))(se_feature)

	se_feature = Dense(channel // ratio,
					   activation='relu',
					   kernel_initializer='he_normal',
					   use_bias=False,
					   name = "se_block_one_"+str(name))(se_feature) # 1,1,32
					   
	se_feature = Dense(channel,
					   kernel_initializer='he_normal',
					   use_bias=False,
					   name = "se_block_two_"+str(name))(se_feature) # 1,1,512
	se_feature = Activation('sigmoid')(se_feature)

	se_feature = multiply([input_feature, se_feature]) #13,13,512
	return se_feature

https://www.pianshen.com/article/85201717942/
https://blog.csdn.net/qq_41736617/article/details/118424585

  • 2
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 9
    评论
需要学习Windows系统YOLOv4的同学请前往《Windows版YOLOv4目标检测实战:原理与源码解析》,课程链接 https://edu.csdn.net/course/detail/29865【为什么要学习这门课】 Linux创始人Linus Torvalds有一句名言:Talk is cheap. Show me the code. 冗谈不够,放码过来!  代码阅读是从基础到提高的必由之路。尤其对深度学习,许多框架隐藏了神经网络底层的实现,只能在上层调包使用,对其内部原理很难认识清晰,不利于进一步优化和创新。YOLOv4是最近推出的基于深度学习的端到端实时目标检测方法。YOLOv4的实现darknet是使用C语言开发的轻型开源深度学习框架,依赖少,可移植性好,可以作为很好的代码阅读案例,让我们深入探究其实现原理。【课程内容与收获】 本课程将解析YOLOv4的实现原理和源码,具体内容包括:- YOLOv4目标检测原理- 神经网络及darknet的C语言实现,尤其是反向传播的梯度求解和误差计算- 代码阅读工具及方法- 深度学习计算的利器:BLAS和GEMM- GPU的CUDA编程方法及在darknet的应用- YOLOv4的程序流程- YOLOv4各层及关键技术的源码解析本课程将提供注释后的darknet的源码程序文件。【相关课程】 除本课程《YOLOv4目标检测:原理与源码解析》外,本人推出了有关YOLOv4目标检测的系列课程,包括:《YOLOv4目标检测实战:训练自己的数据集》《YOLOv4-tiny目标检测实战:训练自己的数据集》《YOLOv4目标检测实战:人脸口罩佩戴检测》《YOLOv4目标检测实战:中国交通标志识别》建议先学习一门YOLOv4实战课程,对YOLOv4的使用方法了解以后再学习本课程。【YOLOv4网络模型架构图】 下图由白勇老师绘制  

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

进我的收藏吃灰吧~~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值