YOLO V3

版权声明:本文为博主原创文章,未经博主允许不得转载

论文:YOLOv3: An Incremental Improvement

链接:https://arxiv.org/abs/1804.02767

第三方代码:https://github.com/qqwweee/keras-yolo3

 

 


嗯,好吧好吧,大神的论文就是随性。

进入正题,作者先是提到了Bounding box Prediction

bounding box的坐标预测还是沿用了YOLO V2的做法,损失也是原来的平方误差损失。

 

Unlike [17] our system only assigns one bounding box prior for each ground truth object. If a bounding box prior is not assigned to a ground truth object it incurs no loss for coordinate or class predictions, only objectness.

 

Class Prediction

简单来讲就是原来的单标签分类改进为多标签分类,文章中很好地解释了,复杂的数据下,一个object可能属于多个类,比如同时有woman和person两个标签,softmax强加了这么一个假设,每个框只有一个类,那么就需要逻辑回归层对每个类别做二分类,经过sigmoid输出的结果大于某阙值,那么就属于该类。

 

Predictions Across Scales:

YOLO V3多个scale融合做预测,类似于FPN。

从上采样的特征中获取更有意义的语义信息,并从早期的feature map中获取更细粒度的信息

 

bounding box的初始尺寸还是沿用了YOLO v2中的k-means聚类的方式来做,尺寸是根据输入大小的图像计算得到的。

 

Feature Extractor:

全卷积网络,模型训练方面还是采用原来YOLO V2的multi-scale training。

 

实验结果对比图:

 

作者谈到了过去的YOLO 对于小目标检测效果很差,在多尺度融合预测的方式下,APs performance 明显提高了,不过中等和大尺度的object效果较差,需要更多的调查。

 

 

Things We Tried That Didn’t Work:

    

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值