目标检测YOLO系列学习记录

本文详细介绍了YOLO(You Only Look Once)目标检测算法的三个版本:YOLOv1、YOLOv2及其改进。重点讲解了YOLOv1的grid cell预测机制和YOLOv2的改进,包括Batch Normalization、Anchor Boxes、High Resolution Classifier等,以及Multi-Scale Training等优化策略。
摘要由CSDN通过智能技术生成


前言

最近要用到目标检测网络,为了更好理解YOLO系列检测算法,跟着bilibili的up主(视频链接)学习一下,同时做一些笔记加深印象。

一、YOLOv1

在这里插入图片描述

首先将图片分成S*S个grid cell(S=7),如果目标的中心落在某个cell里,那么这个cell就负责预测这个目标,每个网格预测B个bounding box(B=2)。除了预测位置之外,附带预测一个confidence值和C(VOC数据集的C=20)个类别的分数。SSD和Faster R-CNN都没有预测confidence这个参数。
在这里插入图片描述
这个图表示了网络的输出的feature map的形状。 x,y表示中心点相对于每个cell的坐标,范围是0-1,这里是把cell的长宽作为单位1来看的,w,h也是0-1的值,是bounding box与图片长宽的比值。confidence定义为预测框与gt的IoU。最终的置信度是对应的class score与confidence相乘。
在这里插入图片描述

网络细节组成,其中1470=7x7x30

在这里插入图片描述
w和h取根号的原因是考虑到了目标大小的差异,当一个大目标和一个小目标预测框与gt的偏移量相同时,从下边的图可以看出,小目标的IoU远小于大目标的IoU,因此这个偏移量相对于小目标来说是很大的,所以希望对小目标的惩罚更大。下图中的曲线也可以看出,小目标的根号下w的差值比大目标的更大。
在这里插入图片描述
confidence损失的第一行计算的是正样本的损失,第二行是负样本的损失。

YOLOV1的限制: 当一群小目标聚集在一起的时候,效果变差。出现了新的长款比时效果变差。直接预测坐标,定位没那么准确。

需要学习Windows系统YOLOv4的同学请前往《Windows版YOLOv4目标检测实战:原理与源码解析》,课程链接 https://edu.csdn.net/course/detail/29865【为什么要学习这门课】 Linux创始人Linus Torvalds有一句名言:Talk is cheap. Show me the code. 冗谈不够,放码过来!  代码阅读是从基础到提高的必由之路。尤其对深度学习,许多框架隐藏了神经网络底层的实现,只能在上层调包使用,对其内部原理很难认识清晰,不利于进一步优化和创新。YOLOv4是最近推出的基于深度学习的端到端实时目标检测方法。YOLOv4的实现darknet是使用C语言开发的轻型开源深度学习框架,依赖少,可移植性好,可以作为很好的代码阅读案例,让我们深入探究其实现原理。【课程内容与收获】 本课程将解析YOLOv4的实现原理和源码,具体内容包括:- YOLOv4目标检测原理- 神经网络及darknet的C语言实现,尤其是反向传播的梯度求解和误差计算- 代码阅读工具及方法- 深度学习计算的利器:BLAS和GEMM- GPU的CUDA编程方法及在darknet的应用- YOLOv4的程序流程- YOLOv4各层及关键技术的源码解析本课程将提供注释后的darknet的源码程序文件。【相关课程】 除本课程《YOLOv4目标检测:原理与源码解析》外,本人推出了有关YOLOv4目标检测的系列课程,包括:《YOLOv4目标检测实战:训练自己的数据集》《YOLOv4-tiny目标检测实战:训练自己的数据集》《YOLOv4目标检测实战:人脸口罩佩戴检测》《YOLOv4目标检测实战:中国交通标志识别》建议先学习一门YOLOv4实战课程,对YOLOv4的使用方法了解以后再学习本课程。【YOLOv4网络模型架构图】 下图由白勇老师绘制  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值