SVM:典型的二类分类器。在小样本、非线性和高维模式识别(样本维数高)中体现了比较大的优势。主要用于模式识别,分类和回归。(基本上可以称为最好的有监督学习算法)。支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理基础上的。(结构风险=经验风险+置信风险)。其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。间隔越大,则越能区分分类的类别。
基本原理:
将所有有待分类的点映射到“高维空间”,然后在高维空间找到一个能将这些点分类的“超平面”。但是这个超平面不是唯一的,因此我们必须寻找这两类点间的“最大间隔”。为什么要最大间隔呢?因为两类间的间隔越大,那么对于分类则越准确,而也就更具有推广泛化能力。
参考博文:
http://www.cnblogs.com/jerrylead/archive/2011/03/13/1982639.html