SVM分类器原理
-
- SVM分类器的主要研究内容
- 支持向量机概述
在机器学习以及模式识别中往往会发挥不错的性能,自开始出现至今一直不断发展,SVM得益于监督学习的特性,可以应用到很多统计范畴的问题中,包括分类、模型识别等。而且SVM的另一大优势是以统计学习理论为基础,其特点是通过优化结构风险最小化来提高模型的泛化性能。
具体的实施过程是:SVM通过构建一个最优分类超平面形成最大间隔,通过控制分类超平面两侧的间隔来控制分类器的性能。在这里最优分类超平面即最大间隔超平面。随着支持向量机理论的不断发展,支持向量机也由最初的只能解决线性可分问题发到通过构造核函数即映射变换来将低维线性不可分转化到高维线性可分。
图1 最优分类线图
- 线性可分理论
支持向量机理论最开始于解决二分类问题的求解,对于给定的样本集合。通过找到一个最优分类超平面g(x)=,其基本原理为通过归一化判别函数,使得正负样本满足,于是分类间隔为即最小可以使分类间隔最大,最后通过求解二次规划问题使得线性可分问题得到求解。
(3)非线性可分理论
当样本线性不可分时则无法利用超平面进行分类,所以核函数得以引入,核函数的机理和作用是通过构造引入核函数,从而将样本数据从低维特征空间映射到高维特征空间。这样做的好处是,一方面可以避免在原始特征空间中进行复杂的计算,另一方面在高维空间中样本得以分离,从而由线性不可分转变为线性可分。
1.2 SVM分类器的实验条件