一、神经网络结构
目标检测领域的深度学习方法主要分为两类:Two stage和One stage。
Two stage表示先由算法生成一系列作为样本的候选框,再通过卷积神经网络进行样本分类。优点在于检测准确率和定位精度高。
One stage表示不用产生候选框,直接将目标边框定位的问题转化为回归问题处理。优点在于算法速度快。
二、传统方法
1. DMP
全称Deformable Parts Model,可变形零件模型。大体思路与HOG(Histogram of Oriented Gradients,梯度直方图)一致。先计算梯度方向直方图,然后用SVM(Support Vector Machine,支持向量机)训练得到物体的梯度模型(Model)。有了这样的模板就可以直接用来分类了。
简单说,就是人工提取图像特征,制作出激励模板(HOG特征)。通过HOG特征检测,目标区域会增强,滑动窗口(遍历整个区域)找出目标。这种方法没有通用性,因为人是人的HOG,猫是猫的HOG,不能通用。
See details at: https://blog.csdn.net/ttransposition/article/details/12966521
(1) SVM
全称Support Vector Machine,支持向量机。
- 是一种二分类模型;
- 基本模型是定义在特征空间上的间隔最大的线性分类器;
- 使用场景:模式识别,分类及回归分析。
- SVM的工作原理(去找最大的分类间隔)
SVM原理:就是求一个超平面,这个超平面能把所有的样本点最有把握的分开。
其中,超平面 - 多维空间分离前景点与背景点的面。
最有把握 - 样本点到超平面距离最大。
具体求解最佳分离平面,是求解一个凸优化的问题。 - 硬间隔,软间隔和非线性SVM(线性可分SVM,线性SVM,非线性SVM)
- 硬间隔 - 完全分类准确,不能存在分类错误。
- 软间隔 - 允许一定量的样本分类错误。
具体求解方法:拉格朗日对偶问题。 - 非线性SVM
核函数:将样本从原始空间映射到一个更高维的特质空间中,使得样本在新的空间中线性可分。(类似于GrabCut算法?)
- SVM如何解决多分类问题(一对多法 和 一对一法)
- 一对多:(类似于if ... else ... 嵌套)
if A: ...
else:
if B: ...
else:
if C: ...
else D
- 一对多:(类似于if ... else ... 嵌套)