1、硬间隔支持向量机
目标是使得两类所有节点到分离超平面之间的距离之和最大
2、软间隔支持向量机
节点中存在噪声(有些点错误的在某一类中,线性分的时候)。
引入“松弛变量“的概念,目标函数里添加权重参数C,C和松弛变量相乘,如果我们能够容忍噪声,那就把C调小,让他的权重降下来,从而变得不重要;反之,我们需要很严格的噪声小的模型,则将C调大一点,权重提升上去,变得更加重要。通过对参数C的调整,可以对模型进行控制。这叫做软间隔最大化。
3、非线性支持向量机
使用核函数(kernel)
只需要计算两个向量在新的映射空间中的内积结果,而映射函数到底是怎么样的其实并不需要知道
核函数是这样的一种函数:仍然以二维空间为例,假设对于变量x和y,将其映射到新空间的映射函数为φ,则在新空间中,二者分别对应φ(x)和φ(y),他们的内积则为<φ(x),φ(y)>。我们令函数Kernel(x,y)=<φ(x),φ(y)>=k(x,y),可以看出,函数Kernel(x,y)是一个关于x和y的函数!而与φ无关!
内容参考:https://blog.csdn.net/ybdesire/article/details/53915093