SVM大概的可以不确切的分为三个程度理解:
(1)线性可分情况下的线性分类器,这是最原始的SVM,它最核心的思想就是最大的分类间隔(margin maximization);
(2)线性不可分情况下的线性分类器,引入了软间隔(soft margin)的概念;
(3)线性不可分情况下的非线性分类器,是SVM与核函数(kernel function)的结合。
支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划
(convex quadratic programming)
的问题,也等价于正则化的合页损失函数的最小化问题
.
支持向量机的学习算法是求解凸二次规划的最优化算法
.
上图中红色的线就是要优化的目标,它表征了数据到决策边界的距离,这个距离就是所谓的最大分类间隔。同时在上面的几个数据,如果靠近两侧的数据少了几个,也不会影响决策边界的确定,而被红色框框出来三个数据才决定了最终的决策边界,所以这三个数据被称之为支持向量。
一.基本原理
1.线性分类器
•
输入空间:欧式空间或离散集合
•
特征空间:欧式空间或
希尔伯特
空间
思路:
给定线性可分训练数据集,通过间隔最大化或等价地求解相应的凸二次规划问题学习得到的分离超平面为
决策函数:
样本点函数间隔:
训练数据集的函数间隔: