yolo.py解读
2.1 class Model 92~250行
2.1.1 init 94~130行
def __init__(self, cfg='yolov5s.yaml', ch=3, nc=None, anchors=None): # model, input channels, number of classes
# cfg: 可以是字典,也可以是yaml文件路径
# ch:输入通道数
# nc:类的个数
# anchors:所有的anchor列表
#类的构造函数 __init__() 这个构造函数可以根据提供的参数创建类的实例,并在实例化过程中对实例进行初始化操作。根据提供的参数值,该构造函数可以加载配置文件、设置图像通道数、目标类别数和锚框等属性,以便在后续的类方法中使用。
#self: 表示类的实例对象自身。在类的方法中,self 参数必须作为第一个参数,用于引用类的实例对象。
super().__init__()#super(): 这是一个内置函数,用于获取当前类的父类对象。
#super().__init__(): 这是对父类构造函数的调用。super() 返回父类对象,然后通过调用 __init__() 方法来执行父类的构造函数。
if isinstance(cfg, dict):# 如果cfg是字典
self.yaml = cfg
else: # is *.yaml
import yaml # 加载yaml模块
self.yaml_file = Path(cfg).name
with open(cfg, encoding='ascii', errors='ignore') as f:
self.yaml = yaml.safe_load(f) # 从yaml文件中加载出字典
# Define model
ch = self.yaml['ch'] = self.yaml.get('ch', ch)
# ch: 输入通道数。 假如self.yaml有键‘ch’,则将该键对应的值赋给内部变量ch。假如没有‘ch’,则将形参ch赋给内部变量ch
if nc and nc != self.yaml['nc']:
# 假如yaml中的nc和方法形参中的nc不一致,则覆盖yaml中的nc。
LOGGER.info(f"Overriding model.yaml nc={self.yaml['nc']} with nc={nc}")
self.yaml['nc'] = nc # override yaml value
if anchors:
# 假如yaml中的anchors和方法形参中的anchors不一致,则覆盖yaml中的anchors。
LOGGER.info(f'Overriding model.yaml anchors with anchors={anchors}')
self.yaml['anchors'] = round(anchors) # override yaml value
self.model, self.save = parse_model(deepcopy(self.yaml), ch=[ch]) # 得到模型,以及对应的特征图保存标签。
# 所谓的特征图保存标签是一个列表,它的内容可能是[1,5],表示第1、5层前向传播后的特征图需要保存下来,以便跳跃连接使用
# 详细解读见2.2
self.names = [str(i) for i in range(self.yaml['nc'])] # 初始化类名列表,默认为[0,1,2...]
self.inplace = self.yaml.get('inplace', True)
#确定步长、步长对应的锚框
m = self.model[-1] # Detect()
if isinstance(m, Detect):# 如果模型的最后一层是detect模块
s = 256 # 2x min stride
m.inplace = self.inplace
m.stride = torch.tensor([s / x.shape[-2] for x in self.forward(torch.zeros(1, ch, s, s))]) # 使用一张空白图片作为模型的输入,并以此得到实际步长。(默认的设置中,步长是8,16,32)
check_anchor_order(m) # anchor的顺序应该是从小到大,这里排一下序
m.anchors /= m.stride.view(-1, 1, 1)
# 得到anchor在实际的特征图中的位置
# 因为加载的原始anchor大小是相对于原图的像素,但是经过卷积池化之后,图片也就缩放了
# 对于的anchor也需要缩放操作
self.stride = m.stride
self._initialize_biases() # only run once
# Init weights, biases
initialize_weights(self)
self.info()
LOGGER.info('')
def parse_model(d, ch): # model_dict, input_channels(3)
LOGGER.info(f"\n{'':>3}{'from':>18}{'n':>3}{'params':>10} {'module':<40}{'arguments':<30}")# 打印信息,
anchors, nc, gd, gw = d['anchors'], d['nc'], d['depth_multiple'], d['width_multiple']# 加载字典中的anchors、nc、depth_multiple、width_multiple。
na = (len(anchors[0]) // 2) if isinstance(anchors, list) else anchors
# na:anchor的数量
#anchors的形式见“1.1 yaml文件解读”,以yolov5s.yaml中定义的为例,
#anchors[0]是第一行的一个anchors,它的长度是6,表示3个w-h对,即3个anchor,这里的na也应当为3
no = na * (nc + 5)
# 每一个anchor输出的数据数量 = anchors * (classes + 5)
# 其中5代表x,y,w,h,conf五个量
layers, save, c2 = [], [], ch[-1]
# layers: 所有的网络层
# save: 标记该层网络的特征图是否需要保存(因为模型中存在跳跃连接,有的特征图之后需要用到)比如save=[1,2,5]则第1,2,5层需要保存特征图
# ch 该层所输出的通道数,比如save[i]=n表示第i层输出通道数为n
for i, (f, n, m, args) in enumerate(d['backbone'] + d['head']):
# f, n, m, args分别对应from, number, module, args
m = eval(m) if isinstance(m, str) else m # 根据字符串m的内容创建类
#isinstance检测m是否为字符串,eval:将m解析为python表达式
for j, a in enumerate(args):
# args是一个列表,这一步把列表中的内容取出来
try:
args[j] = eval(a) if isinstance(a, str) else a # eval strings
except NameError:
pass
n = n_ = max(round(n * gd), 1) if n > 1 else n
# 将深度与深度因子相乘,计算层深度。深度最小为1.
if m in [Conv, GhostConv, Bottleneck, GhostBottleneck, SPP, SPPF, DWConv, MixConv2d, Focus, CrossConv,
BottleneckCSP, C3, C3TR, C3SPP, C3Ghost]:
# 假如module名字正确,则开始加载
c1, c2 = ch[f], args[0]
# c1: 输入通道数 c2:输出通道数
if c2 != no: # 该层不是最后一层,则将通道数乘以宽度因子
c2 = make_divisible(c2 * gw, 8)
# 也就是说,宽度因子作用于除了最后一层之外的所有层
args = [c1, c2, *args[1:]]
# 将前面的运算结果保存在args中,它也就是最终的方法参数。
#args[1:]是列表的切片,表示从索引位置1开始,()不包括1,获取列表的所有元素,*args[1:]表示扩展操作符,用于将每个元素解包成单独的元素。
# 上面这几步主要处理了一层网络的参数
if m in [BottleneckCSP, C3, C3TR, C3Ghost]: # 根据每层网络参数的不同,分别处理参数
#具体各个类的参数是什么请参考它们的__init__方法,这里不再详细解释了
args.insert(2, n)
n = 1
elif m is nn.BatchNorm2d:
args = [ch[f]]
elif m is Concat:
c2 = sum(ch[x] for x in f)
elif m is Detect:
args.append([ch[x] for x in f])
if isinstance(args[1], int): # number of anchors
args[1] = [list(range(args[1] * 2))] * len(f)
elif m is Contract:
c2 = ch[f] * args[0] ** 2
elif m is Expand:
c2 = ch[f] // args[0] ** 2
else:
c2 = ch[f]
m_ = nn.Sequential(*(m(*args) for _ in range(n))) if n > 1 else m(*args)
# 构建整个网络模块
# 如果n>1,就需要加入n层网络。
#nn.Sequential(创建一个顺序的神经网络,
t = str(m)[8:-2].replace('__main__.', '') # t是类名
#replace字符串替换操作
np = sum(x.numel() for x in m_.parameters()) # np: 参数个数
m_.i, m_.f, m_.type, m_.np = i, f, t, np # attach index, 'from' index, type, number params
LOGGER.info(f'{i:>3}{str(f):>18}{n_:>3}{np:10.0f} {t:<40}{str(args):<30}') # print
save.extend(x % i for x in ([f] if isinstance(f, int) else f) if x != -1)
#如果x不是-1,则将其保存在save列表中,表示该层需要保存特征图
layers.append(m_)# 将新创建的layer添加到layers数组中
if i == 0: # 如果是初次迭代,则新创建一个ch(因为形参ch在创建第一个网络模块时需要用到,所以创建网络模块之后再初始化ch)
ch = []
ch.append(c2)
return nn.Sequential(*layers), sorted(save)# 将所有的层封装为nn.Sequential