目标检测算法之YOLOV2

YOLOV2论文对v1中许多地方都进行了相关的改进和提升,其将骨干网络也进行了更换,不在使用v1的骨干网络。其v2骨干模型结构图如下:
在这里插入图片描述
作者删去了骨干网络最下面的三层操作,接上了三个卷积核一个高维度特征与低维度特征的融合,并最终生成模型输出 13 x 13 x (20 + 5) * 检测框个数(下图是从网络中找的)。
在这里插入图片描述
后面的20 + 5 怎么来的呢?在v1中,不管你单元格内有多少个框,都共用一个20维的类别概率值,所以你需要计算每一个框对应的每一个类别概率值(iou 乘以 该框有物体的概率 乘以 有物体的前提下是物体A的概率)。在v2中给每一个框都预测一组20维类别概率值,后面的5就还是四个坐标一个confidence分数。

除了上面模型结构和最终输出结构的改变外,下面详细讲讲v2改进的地方:

1、 v1中并没有使用bn层,此时我们使用了bn层,效果提升2个点
2、v1中采用224作为图像输入,这里我们采用300或者416 488 544作为图像输入,得到4个点提升
3、v1中直预测框的位置,然后由iou以及有目标概率和在有目标概率前提下是该目标的概率乘积决定概率分布
而在v2中,我们就使用fasterrcnn那一套了,就

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值