计算机视觉. 目标检测: Yolo系列网络学习笔记

目录

V1

V2

9000

V3

总结


视频链接:

https://www.bilibili.com/video/BV1RS4y1u7bA?p=46https://www.bilibili.com/video/BV1RS4y1u7bA?p=46

V1

GT=Ground Truth

每个格子预测B(一般为2)个bounding box(它们都是同一个类别),每个bounding box包括检测框位置、置信度

每个格子只预测一个物体(置信度最高的),这是yoloV1的缺陷

每个格子输出向量:5B+C,5代表x、y、w、h、c(置信度)

例如:通过两个3*3代替一个5*5,降低参数量,增加模型深度

关于预训练:ImageNet 预训练 - 知乎

在Loss设置时并没有考虑小目标对IoU的影响较大

V2

使用anchor box而不是简单的回归

主干网络:DarkNet

可以改变输入图像尺寸,进行多尺度训练,因此可以融合细粒度特征

V1中,预训练与最终使用的分辨率存在差异,分类与检测模型存在不一致性

思路:使用卷积代替全连接,需要(S*S)*(5B+C)输出,因此令卷积输出的特征图大小为(S*S),通道数为(5B+C),从而效果相同。

为什么使用416*416,而不是448*448呢?32倍下采样,得到13*13(奇数)而不是14*14,从而存在一个网格位于图像的正中心。

预测的bonding box,由7*7*2变为13*13*9>1000,小幅度降低了map,大幅度提升了召回率

通过跳层连接,将浅层特征直接与深层特征连接,粗粒度与细粒度融合

yoloV1每个cell的类别只预测一个类别,即便有B个box。在V2中,每个box对应一个类别概率。

(5B+C) -> B*(5+C)

9000

归功于采用了WordTree结构,将COCO(检测:粗粒度分类)与ImageNet(分类:细粒度分类)数据集融合。

构建两种数据集类别的层次关系。从而一幅图片存在层次上的多个类别标记。

softmax时候考虑label与label之间的关系。

V3

9个聚类中心,进行聚类,分到3个尺度上,每个尺度对应3个聚类中心

总结

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

乔卿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值