《统计学习方法(李航)》讲义 第07章 支持向量机

      支持向量机(supportvectormachines,SVM) 是一种二类分类模型.它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机; 支持向量机还包括核技巧,这使它成为实质上的非线性分类器.支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划(convex quadratic也等价于正则化的合页损失函数的最小化问题.支持向programming )的 问题,量机的学习算法是求解凸二次规划的最优化算法.支持向量机学习方法包含构建由简至繁的模型: 线性可分支持向量机(linearsupport vector machine in linearly separable case)、线性支持向量机(lincar supportvector machine) 及非线性支持向量机(non-linear support vector machine).简单模型是复杂模型的基础,也是复杂模型的特殊情况.当训练数据线性可分时,通过硬间隔最大化(hard margin maximization),学习一个线性的分类器,即线性可分支持向量机,又称为硬间隔支持向量机; 当训练数据近似线性可分时,通过软间隔最大化(soft margin maximization),也学习一个线性的分类器,即线性支持向量机,又称为软间隔支持向量机; 当训练数据线性不可分时,通过使用核技巧(kerael trick) 及软间隔最大化,学习非线性支持向量机.当输入空间为欧氏空间或离散集合、特征空间为希尔伯特空间时,核函数(kernel function) 表示将输入从输入空间映射到特征空间得到的特征向量之间的内积.通过使用核函数可以学习非线性支持向量机,等价于隐式地在高维的特征空间中学习线性支持向量机.这样的方法称为核技巧.核方法(kernel method) 是比支持向量机更为一般的机器学习方法.Cortes 与Vapnik 提出线性支持向量机,Boser、Guyon 与Vapnik 又引入核技巧,提出非线性支持向量机,本章按照上述思路介绍3 类支持向量机、核函数及一种快速学习算法一一序列最小最优化算法(SMO).

 

支持向量机Python实战(手写体识别): https://github.com/itmorn/Machine-Learning/tree/master/SupportVectorMachine

Python sklearn-svm地址: http://scikit-learn.org/stable/modules/svm.html

——黎明传数

转载于:https://www.cnblogs.com/itmorn/p/7663369.html

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值