一、softmax的真相(与SVM)
全连接层(ssd没有用全连接层)或卷积层后面接的softmax是多分类,相当于OvO(一对一)/OvR(一对多)的SVM或者Adaboost.
注:
人为提取特征有SIFT、HOG、SURF等方法,而深度学习网络是自动提取特征;
过去在原图上基于滑动窗口的区域选择策略容易产生窗口冗余,Faster rcnn是从第五层特征图上选anchor,ssd是从conv4_3,conv7,conv8_2,conv9_2,conv10_2,conv11_2这些大小不同的feature maps来选候选框。
二、边框回归的实质
ssd方法的核心是使用小卷积滤波器(3×3的卷积核)来预测特征图上固定的一组默认边界框的类别分数和位置偏移。其中位置偏移是groundtruth(真实标签框)与建议框的偏移量(包括中心点坐标x,y和宽度长度w,h):
上图是训练时才有的计算,而作预测时则只有下图:
三、损失函数(与KKT条件、拉格朗日乘子)
重读SSD(2016 SSD: Single Shot MultiBox Detector)
最新推荐文章于 2023-07-08 15:46:50 发布
本文深入探讨了SSD(Single Shot MultiBox Detector)的工作原理,涉及softmax与SVM的关系、边框回归的实质、损失函数的设计、IOU与NMS的应用,以及多尺度和宽高比例在默认边界框中的作用。通过这些关键概念,揭示了SSD作为目标检测模型的高效之处。
摘要由CSDN通过智能技术生成