深度篇——目标检测史(六) 细说 YOLO-V3目标检测

本文详细介绍了YOLO-V3目标检测模型,包括其原理、网络结构、预测过程及输出解释,阐述了YOLO系列的发展,特别是YOLO-V3在不同尺度特征图上的预测方法和非极大值抑制策略。
摘要由CSDN通过智能技术生成

返回主目录

返回 目标检测史 目录

上一章:深度篇——目标检测史(五) 细说 SSD 目标检测

下一章:深度篇——目标检测史(七) 细说 YOLO-V3目标检测 之 代码详解

 

论文地址:《YOLO-V3》

代码地址:tf_yolov3_pro

 

本小节,细说 YOLO-V3 目标检测,下一小节细说 YOLO-V3目标检测 之 代码详解

 

七. YOLO-V3 目标检测

YOLO (You Only Look Once, YOLO) 你只看一次

YOLO-V1:2015 年,YOLO-V2/9000:2017 年,YOLO-V3:2018 年

1. YOLO 代表 你只看一次。它是一种使用深度卷积神经网络学习特征来检测目标的目标检测器。YOLO 仅使用卷积层,使其成为全卷积网络 (FCN)。在下采样时,不使用 pooling层,而是使用一个步幅为 2 的卷积核对 feature maps 进行下采样操作。这样有助于防止由于 pooling 而丢失底层的特征。

 

2. YOLO-V3 使用 3 个不同尺度大小的 feature maps 来进行预测。在每个尺度的 feature maps 的每个位置(像素) 又都使用 3 个不同纵横比的 bounding boxes 来预测。3 个不同尺度大小的 feature maps是通过对  backbone 最后的 feature maps 的长、宽 分别 x2 进行的上采样后再与该尺度对应的 feature maps 通过 concat 而得到。而 anchors 的分布可以通过 k-means 聚类来决定 bounding boxes 的位置。在 COCO 数据集中,3 个不同尺度的 bounding boxes 对应的 anchors 分为 9 个簇,它们为:(10 x 13), (16 x 30), (33 x 23), (30 x 61), (62 x 45), (59 x 119), (116 x 90), (156 x 198), (373 x 326)

 

3. YOLO-V3 的步骤:

  (1). 将整张图像输入,通过 CNN 提取 3 个不同尺度的 feature maps 为后面的预测做准备(分为 大、中、小 3 个尺度)。 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值