目标检测的YOLOv1,v2

目录

YOLO-V1 

one stage算法流程

​编辑 核心思想

网络架构

损失函数

 NMS(非极大值抑制)

优势 

快速,简单!

YOLO-V2

 网络结构

 聚类提取先验框

Anchor Box 

Directed Location Prediction x 

YOLO-V2-Fine-Grained Features 

Multi-Scale 


YOLO-V1 

one stage算法流程

· 常见one stage算法

  • YOLO系列:YOLO v1-v5
  • SSD系列:SSD、DSSD、FSSD
  • 其他经典:RefineDet
  • 经典的one-stage方法
  • You Only Look Once,名字就已经说明了一切!
  • 把检测问题转化成回归问题,一个CNN就搞定了!
  • 可以对视频进行实时检测,应用领域非常广!

 核心思想

 

网络架构

损失函数

 

 NMS(非极大值抑制)

优势 

快速,简单!

YOLO-V2

  1. 更快!更强!
  2. 更大的分辨率

  • V1训练时用的是224*224,测试时使用448*448
  • 可能导致模型水土不服,V2训练时额外又进行了10次448*448的微调
  • 使用高分辨率分类器后,YOLOv2的mAP提升了约4%

 网络结构

  • DarkNet,实际输入为416*416
  • 没有FC层,5次降采样(13*13)
  • 1*1卷积节省了很多参数

 聚类提取先验框

  • faster-rcnn系列选择的先验比例都是常规的,但是不一定完全适合数据集
  • K-means聚类中的距离

 

Anchor Box 

  • 通过引入anchor boxes,使得预测的box数量更多(13*13*n)
  • 跟faster-rcnn系列不同的是先验框并不是直接按照长宽固定比给定

 

Directed Location Prediction x 

  • bbox:中心为(xp,yp);宽和高为(wp,hp),则:
  • tx=1,则将bbox在x轴向右移动wp;tx=−1则将其向左移动wp
  • 这样会导致收敛问题,模型不稳定,尤其是刚开始进行训练的时候
  • V2中并没有直接使用偏移量,而是选择相对grid cell的偏移量

 公式:

 ·感受野:概述来说就是特征图上的点能看到原始图像多大区域。

 

 

假设输入大小都是h*w*c,并且都使用c个卷积核(得到c个特征图),可以来计算一下其各自所需参数:
很明显,堆叠小的卷积核所需的参数更少一些,并且卷积过程越多,特征提取也会越细致,加入的非线性变换也随着增多,还不会增大权重参数个数,这就是VGG网络的基本出发点,用小的卷积核来完成体特征提取操作。

YOLO-V2-Fine-Grained Features 

 最后一层时感受野太大了,小目标可能丢失了,需融合之前的特征。

 

Multi-Scale 

  • 都是卷积操作可没人能限制我了!一定iterations之后改变输入图片大小。
  • 最小的图像尺寸为320 x 320。
  • 最大的图像尺寸为608 x 608。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

New_bie Set_sail

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值