一、YOLO-V1(经典的one-stage方法)
1.网络架构
2.损失函数
3.YOLO-V1:
优点:快速,简单!
问题1:每个Cell只预测一个类别,如果重叠无法解决。
问题2:小物体检测效果一般,长宽比可选的但单一。
二、YOLO-V2:更快!更强!
1.YOLO-V2-Batch Normalization
(1)V2版本舍弃Dropout,卷积后全部加入Batch Normalization。
(2)网络的每一层的输入都做了归一化,收敛相对更容易。
(3)经过Batch Normalization处理后的网络会提升2%的mAP。
(4)从现在的角度来看,Batch Normalization已经成网络必备处理。
2.YOLO-V2-更大的分辨率
(1)V1训练时用的是224*224,测试时使用448*448。
(2)可能导致模型水土不服,V2训练时额外又进行了10次448*448的微调。
(3)使用高分辨率分类器后,YOLOv2的mAP提升了约4%。
3.YOLO-V2-网络结构
(1)DarkNet,实际输入为416*416。
(2)没有FC层,5次降采样(13*13)。
(3)1*1卷积节省了很多参数。
4.YOLO-V2-聚类提取先验框
faster-rcnn系列选择的先验比例都是常规的,但是不一定完全适合数据集。
5.YOLO-V2-Anchor Box
(1)通过引入anchor boxes,使得预测的box数量更多(13*13*n)。
(2)跟faster-rcnn系列不同的是先验框并不是直接按照长宽固定比给定。
6.YOLO-V2-Directed Location Prediction
三、YOLO系列
1.感受野:概述来说就是特征图上的点能看到原始图像多大区域。
2.很明显,堆叠小的卷积核所需的参数更少一些,并且卷积过程越多,特征提取也会越细致,加入的非线性变换也随着增多,还不会增大权重参数个数,这就是VGG网络的基本出发点,用小的卷积核来完成体特征提取操作。
3.YOLO-V2-Fine-Grained Features
最后一层时感受野太大了,小目标可能丢失了,需融合之前的特征。
4.YOLO-V2-Multi-Scale
都是卷积操作可没人能限制我了!一定iterations之后改变输入图片大小。