- 主要解决的问题:分类
- 线性分类方法:寻找到一个超平面(二维情况下为线)使样本分成两类,并且(两类样本)间隔最大。如图1,间隔最大就是求2/||w||最大。虚线上的点叫支撑向量(SV)
- 非线性分类问题的解决办法:将非线性样本转换为线性样本,通过核函数(kernel trick),如图2
- 回归问题:区别不大,若输入标签为连续值则做回归,若输入标签为分类值则做分类
- 训练要注意的参数:
- kernel:核函数的类型,一般常用的有’rbf’,’linear’,’poly’
- C:惩罚因子,学术上叫软间隔,表征你有多么重视离群点,C越大越重视,越不想丢掉它们。
- gamma: 是’rbf’,’poly’和’sigmoid’的核系数且gamma的值必须大于0。
![](https://i-blog.csdnimg.cn/blog_migrate/fb35ef847877d139464accbd43e2af58.jpeg)
![è¿éåå¾çæè¿°](https://i-blog.csdnimg.cn/blog_migrate/6dc185dcfa347a53fe6c21a58c1c0a1e.jpeg)
总结:线性分类方法和非线性转线性的思路是SVM的核心特点。