阅读之前看这里👉:博主是正在学习数据分析的一员,博客记录的是在学习过程中一些总结,也希望和大家一起进步,在记录之时,未免存在很多疏漏和不全,如有问题,还请私聊博主指正。
博客地址:天阑之蓝的博客,学习过程中不免有困难和迷茫,希望大家都能在这学习的过程中肯定自己,超越自己,最终创造自己。
目录
(1)SVM的原理是什么?
支持向量机是一种二分类模型,它的基本模型定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;支持向量机还包括核技巧,这使他成为实质上的非线性分类器。支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最大化问题。支持向量机的学习算法是求解凸二次规划的最优化算法。
简单来说SVM就是,在特征空间上找到最优超平面使得数据的正负样本间隔最大。
(2)支持向量机的分类及区别
(3)SVM为什么采用间隔最大化?
支持向量机学习的基本思想是求解能够正确划分训练集并且几何间隔最大的最大超平面。对线性可分数据集而言,线性可分分离超平面有无穷多个,但是几何间隔最大的分离超平面是唯一的。
间隔最大化的直观解释是: 对训练集找到几何间隔最大的超平面意味着以充分的确信度对训练数据进行分类。也就是说,不仅将正负实例点分开,而且对最难分的实例点(离超平面最近的点**)也有最大的确信度将它们分开**。这样的超平面应该对未知的新实例有很好的分类预测能力(具有良好的鲁棒性)。
(4)为什么SVM要引入核函数?(将线性不可分变成线性可分)
当样本在原始空间线性不可分时,可将样本从原始空间映射到一个更高维的特征空间,使得样本在这个特征空间内线性可分。
(5)常用的核函数
- 多项式核函数:
K ( x , z ) = ( x ⋅ z + 1 ) p K(x,z)=(x \cdot z + 1)^p K(x,z)=(x⋅z+1)p
对应的支持向量机是一个 p p