目录
视频链接:
https://www.bilibili.com/video/BV1RS4y1u7bA?p=46https://www.bilibili.com/video/BV1RS4y1u7bA?p=46
V1
GT=Ground Truth
每个格子预测B(一般为2)个bounding box(它们都是同一个类别),每个bounding box包括检测框位置、置信度
每个格子只预测一个物体(置信度最高的),这是yoloV1的缺陷
每个格子输出向量:5B+C,5代表x、y、w、h、c(置信度)
例如:通过两个3*3代替一个5*5,降低参数量,增加模型深度
关于预训练:ImageNet 预训练 - 知乎
在Loss设置时并没有考虑小目标对IoU的影响较大
V2
使用anchor box而不是简单的回归
主干网络:DarkNet
可以改变输入图像尺寸,进行多尺度训练,因此可以融合细粒度特征
V1中,预训练与最终使用的分辨率存在差异,分类与检测模型存在不一致性
思路:使用卷积代替全连接,需要(S*S)*(5B+C)输出,因此令卷积输出的特征图大小为(S*S),通道数为(5B+C),从而效果相同。
为什么使用416*416,而不是448*448呢?32倍下采样,得到13*13(奇数)而不是14*14,从而存在一个网格位于图像的正中心。
预测的bonding box,由7*7*2变为13*13*9>1000,小幅度降低了map,大幅度提升了召回率
通过跳层连接,将浅层特征直接与深层特征连接,粗粒度与细粒度融合
yoloV1每个cell的类别只预测一个类别,即便有B个box。在V2中,每个box对应一个类别概率。
(5B+C) -> B*(5+C)
9000
归功于采用了WordTree结构,将COCO(检测:粗粒度分类)与ImageNet(分类:细粒度分类)数据集融合。
构建两种数据集类别的层次关系。从而一幅图片存在层次上的多个类别标记。
softmax时候考虑label与label之间的关系。
V3
9个聚类中心,进行聚类,分到3个尺度上,每个尺度对应3个聚类中心