Abstract
总结scikit-learn中的SVM算法。
前言
最初的支持向量机(Support Vector Machine, SVM)算法由Vladimir N. Vapnik和Alexey Ya. Chervonenkis于1963年发明的。
SVM在高维或无限维空间中构造超平面或超平面集,可用于分类,回归或诸如异常值检测的其他任务。
SVM算法
scikit-learn中SVM算法分为两类。一类用于分类,包括SVC, NuSVC,和LinearSVC 3个类。另一类用于回归,包括SVR, NuSVR,和LinearSVR 3个类。
1. 分类问题
2. 回归问题
备注
SVM原理可参考的资料:
- 支持向量机原理(一) 线性支持向量机
https://www.cnblogs.com/pinard/p/6097604.html- 支持向量机原理(二) 线性支持向量机的软间隔最大化模型
http://www.cnblogs.com/pinard/p/6100722.html- 支持向量机原理(三)线性不可分支持向量机与核函数
http://www.cnblogs.com/pinard/p/6103615.html- 支持向量机原理(四)SMO算法原理
http://www.cnblogs.com/pinard/p/6111471.html- 支持向量机原理(五)线性支持回归
http://www.cnblogs.com/pinard/p/6113120.html
scikit-learn中SVM算法总结:
- scikit-learn 支持向量机算法库使用小结
https://www.cnblogs.com/pinard/p/6117515.html