https://www.pkudodo.com/2018/12/16/1-8/ 很好
目录
线性
C越大相当于容错空间越小 ==》后面最小化时进行打压的厉害就变成硬间隔了
非线性 核函数
先特征映射为新特征 进行变形 在点乘 ==》先点乘 在转化为高维特征
不将Xi Xj 转为多项式特征在点乘(一个特征转为多项式特征 会有很多个 此时在进行点乘 计算量会很大)
原本先将特征进行映射为无穷维 在进行点乘 ==》 m*n m个样本 n个特征 最终经过高斯变为 m*m 维
适用于 样本量少 维数高的 ==》比如自然语言处理 样本数不多 但维度很高
gamma相当于均方差倒数 gamma越大 方差越小 偏离程度越小 高斯函数越高 范围越窄 越可能过拟合 模型越复杂
训练集上包裹的太好
SVM回归
在margin内 包围的样本量越多越好