
YOLOv5 引入注意力机制——以SE为例
当引入新的层时,要修改头部(head)结构中的from参数,因为主干网路中添加了一层(第十层SE机制),所以后续的层数from参数要做相应的修改,即大于等于10层的层数都要加1。修改前后如图4、5.将注意力机制模块放到common.py文件中,同时也把import torch.nn.funcational as F,导入到mommon文件中。到yolov5s-se.yaml文件的主干网络(BackBone)添加注意力机制(SE),如图3。小结:只要加入新的层,则后续相应的层数要做修改。











