【YOLOv3】《YOLOv3:An Incremental Improvement》

在这里插入图片描述
在这里插入图片描述
arXiv-2018

TECH REPORT

部分整理参考 YOLO:YOLOv1,YOLOv2,YOLOv3,TinyYOLO,YOLOv4,YOLOv5详解



1 Advantages / Contributions

COCO 数据集上,at 320 × 320 YOLOv3 runs in 22 ms at 28.2 mAP, as accurate as SSD but three times faster

2 Method

2.1 Bounding Box Prediction

在这里插入图片描述
在这里插入图片描述

预测 objectness score 用的是 logistic regression 分类器

与 GT IoU 最大的 prior box 的标签 objectness score 为 1,每个 GT 只指定一个 box prior

没有和 GT 配对的 prior box 只有 objectness loss,没有 coordinate 和 class prediction loss

Loss 来自 你对YOLOV3损失函数真的理解正确了吗?

在这里插入图片描述
定位+objectness+分类

在yolo v3&v4中,anchor匹配策略和SSD、Faster RCNN类似:保证每个gt bbox有一个唯一的anchor进行对应,匹配规则就是IOU最大,并且某个gt不能在三个预测层的某几层上同时进行匹配。不考虑一个gt bbox对应多个anchor的场合,也不考虑anchor是否设置合理。

2.2 Class Prediction

multi-label classification

分类器没有用 softmax,而是 independent logistic classification,loss 为 binary cross-entropy

2.3 Predictions Across Scales

每个 scale 预测

N × N × [ 3 ∗ ( 4 + 1 + 80 ) ] N × N × [3 * (4+1+80)] N×N×[3(4+1+80)]

  • 3,每个 cell 3 个 priors
  • 4 bounding box offsets
  • 1 objectness prediction
  • 80 class predictions

每种尺度预测 3 个 box, anchor 的设计方式仍然使用聚类,9 clusters 分布在 3 个 scale 上

(10 ×13); (16 × 30); (33 × 23); (30 × 61); (62 × 45); (59 × 119); (116 × 90); (156 × 198); (373 × 326)

在这里插入图片描述
在这里插入图片描述
图片来自 一文看懂YOLO v3

YOLOv3 只会对 1 个 prior 进行操作,也就是那个最佳 prior。而 logistic 回归就是用来从 9 个 anchor priors 中找到 objectness score(目标存在可能性得分)最高的那一个

2.4 Feature Extractor

Darknet-53

跑分类时结构如下:

在这里插入图片描述

注意没有 pooling 操作哟
在这里插入图片描述
Table 2,在 Titan X 上 256×256 single crop 的结果

用于 detection 的结构如下:

图片来源 YOLO v3网络结构分析

在这里插入图片描述
深入浅出Yolo系列之Yolox核心基础完整讲解

在这里插入图片描述
在这里插入图片描述

v3 Head 13 ∗ 13 ∗ 3 13*13*3 13133 26 ∗ 26 ∗ 3 26*26*3 26263 52 ∗ 52 ∗ 3 52*52*3 52523

你一定从未看过如此通俗易懂的YOLO系列(从v1到v5)模型解读 (下)

3 Experiments

COCO 数据集

在这里插入图片描述
Table 3 AP.5 还行,AP 还是不够看的

随着IOU的增大,性能下降,说明 YOLOv3 不能很好地与ground truth切合

在这里插入图片描述

Figure 3 AP.5 还有一战之力

4 Rebuttal

Reviewer #2 diss 图1 图3 坐标原点非 0,作者画了个图 4

在这里插入图片描述
Reviewer #4 说作者 diss mAP 的理由不充分

作者来了个图 5
在这里插入图片描述

A miss-classified example is much more obvious than a bounding box that is slightly shifted

VOC metric 阈值给的低是因为 IOU threshold was ”set deliberately low to account for inaccuracies in bounding boxes in the ground truth data“

COCO 可以标的更准(跑过都知道,哈哈),但 mAP 过于关注 location,其实 classification 也蛮重要! 图 5 两个检测器算 mAP(每类根据每个 bb 的 score 排序,画 PR曲线,算面积,类平均) 一摸一样,但是效果显然 detector1 好

5 Conclusion(Own)

  • Gaussian_YOLOv3

    https://github.com/jwchoi384/Gaussian_YOLOv3

    《Gaussian YOLOv3: An Accurate and Fast Object Detector Using Localization Uncertainty for Autonomous Driving》(ICCV-2019)

    Gaussian YOLOv3:一个更强的YOLOv3,现已开源!
    在这里插入图片描述
    把 bbox 的偏移变成了高斯分布(均值方差)

正负样本匹配机制(进击的后浪yolov5深度可视化解析

在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值