深度学习物体检测(九)——对象检测YOLO系列总结

YOLO ->SSD  -> YOLO2路线是基于回归检测进化路线,

一句话来描述 来描述进化过程:

YOLO:RCNN系列对象检测太慢了,能快点吗?

SSD :YOLO速度是上来了,可是mAP太低了?

YOLO2:结合YOLO和Faster RCNN网络各自快速和mAP高的优点,能满足实时和较高的mAP的要求吗?


YOLO摘要:

性能:22毫秒/张图片,检测结果是57.9%(mAP)

技术要点:图片划分为7*7的网格,各一个格子预测两个目标,输出为对象置信度+位置

SSD摘要:

性能:17毫秒/张图片,检测结果是73.9%(mAP)
技术要点:图片划分为8*8的网格 + anchors boxes + FCN,在不同层的feature map上使用3*3的滑窗,不同尺度检测

YOLO2摘要:

性能:

(288*288图片):11毫秒/张图片,检测结果是69%(mAP)

(544*544图片):25毫秒/张图片,检测结果是78.6%(mAP)

技术要点:高分辨率预训练,卷积层上使用Anchor boxes,先聚类纬度,约束位置预测范围,细粒度特征,多尺度训练


YOLO将目标检测任务转换成一个回归问题,大大加快了检测的速度,使得YOLO可以每秒处理45张图像。而且由于每个网络预测目标窗口时使用的是全图信息,使得false positive比例大幅降低(充分的上下文信息)。但是YOLO也存在问题:没有了region proposal机制,只使用7*7的网格回归会使得目标不能非常精准的定位,这也导致了YOLO的检测精度并不是很高。

SSD结合了YOLO中的回归思想和Faster R-CNN中的anchor机制,使用全图各个位置的多尺度区域特征进行回归,既保持了YOLO速度快的特性,也保证了窗口预测的跟Faster R-CNN一样比较精准。SSD在VOC2007上mAP可以达到72.1%,速度在GPU上达到58帧每秒。

YOLO2使用一系列的方法对YOLO进行了改进,在保持原有速度的同时提升精度得到YOLOv2。并提出了一种目标分类与检测的联合训练方法,同时在COCO和ImageNet数据集中进行训练得到YOLO9000,实现9000多种物体的实时检测。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值