SVM个人理解
核心
SVM(Support Vector Machine),二分类模型(可扩展为多分类模型, One-vs-rest or one-vs-one,也可做回归,参考SVR)。其要点如下:
- Maximum geometric margin: 求空间中一超平面得到最大分类间隔
- Hinge loss: 对支持向量施加的松弛惩罚
- Kernel trick: 利用核函数非线性分类
概念
- 问题形式化:给定训练数据集
T=(x1,y1),(x2,y2),…,(xN,yN)
其中,xi∈Rn,yi∈{ +1,−1},i=1,2,…,N,xi是第i个特征向量,yi是xi的类标记 - 线性可分: 假设训练集在输入空间线性可分,即存在一个超平面: wx+b=0 能够完全划分正负实例点。
- 函数间隔
γ^=mini=1,…,Nyi⋅(w⋅xi+b)
- 几何间隔
γ=mini=1,…,Nyi⋅(w⋅xi+b)∥w∥=γ^∥w∥
线性可分支持向量机
对于线性可分的训练数据集,可以证明一定存在唯一的超平面能够最大化几何间隔。我们认为具有最大间隔的超平面具有最佳分类效果。
在这,个人对函数间隔与几何间隔这样理解。对同一个超平面,通过比例缩放 w 和
因此,线性可分支持向量机学习算法-最大硬间隔法
约束最优化问题
minw,b12∥w∥2s.t. yi(w⋅xi+b)−1≥0,i=1,2,…,N
求得最优解 w∗ 和 b∗
超平面w∗⋅x+b∗=0
分类决策函数