目录
2.High-Resolution Classifier(高分辨率分类器)
4.Convolutional With Anchor Boxes
5.Directed Location Prediction
YOLOv2(You Only Look Once version 2)是一种流行的实时目标检测系统,由 Joseph Redmon 和他的同事在 2016 年提出。YOLOv2 在其前身 YOLO 的基础上进行了改进,包括速度和准确性的提升。本文将介绍 YOLOv2 网络架构的关键特点。
1.Batch Normalization(批次归一化)
V2版本舍弃Dropout,卷积后全部加入Batch Normalization,网络的每一层的输入都做了归一化,收敛相对更容易,并减少过拟合现象。经过Batch Normalization处理后的网络会提升2%的mAP,从现在的角度来看,Batch Normalization已经成网络必备处理。
2.High-Resolution Classifier(高分辨率分类器)
YOLO-V2具有更大的分辨率,V1训练时用的是224*224,测试时使用448*448,可能导致模型不适应所有任务,V2训练时额外又进行了10次448*448的微调,使用高分辨率分类器后,YOLOv2的mAP提升了约4%。
3.Darknet-19
YOLOv2 的特征提取部分基于 Darknet-19,这是一个包含 19 个卷积层和 5 个最大池化层的网络,没有全连接层。卷积层中很多层采用1*1的卷积核,节省了很多参数。
4.Convolutional With Anchor Boxes
YOLOv2使用卷积层和锚框(Anchor Boxes)来预测边界框,代替了YOLOv1中的全连接层。这种方法使得模型能够更有效地预测物体的位置。
5.Dimension Clusters(聚类提取先验框)
YOLOv2通过聚类分析自动确定锚框的尺寸,而不是手动选择,这有助于提高模型对不同尺寸物体的检测能力。流程为:在模型训练之前,提前把训练集的标签值提取出来,通过k-means聚类的方法,聚类出5个类别,结果当作是先验框。最后再进行模型训练。
5.Directed Location Prediction
YOLOv2改进了边界框的位置预测方法,使用sigmoid函数将偏移量映射到0、1之间,将预测值限制在合理范围内,从而提高了模型的稳定性。
6.Fine-Grained Features
为了更好地检测小物体,YOLOv2引入了细粒度特征,通过passthrough层将高分辨率的特征图与低分辨率的特征图结合起来。
7.Multi-Scale
YOLOv2在训练过程中采用多尺度输入,每隔一定批次随机改变输入图像的尺寸,使模型能够适应不同尺寸的图像。