SVM原理

本文详细介绍了支持向量机(SVM)的原理,包括拉格朗日乘子法、核函数概念及其常见类型,如线性、多项式、高斯、指数、拉普拉斯等。此外,还探讨了SVM的SMO优化算法,并通过代码示例展示了如何理解和应用SVM。
摘要由CSDN通过智能技术生成

主要学习内容

1.svm简述

2.拉格朗日乘子法

3.核函数

4.SMO算法

5.结合代码理解


1.svm简述

SVM的全称是Support Vector Machine,即支持向量机,主要用于解决模式识别领域中的数据分类问题,属于有监督学习算法的一种。

支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accuracy)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的推广能力(或称泛化能力)。

2.拉格朗日乘子法

基本的拉格朗日乘子法(又称为拉格朗日乘数法),就是求函数 f(x1,x2,...) 在 g(x1,x2,...)=0 的约束条件下的极值的方法。其主要思想是引入一个新的参数 λ (即拉格朗日乘子),将约束条件函数与原函数联系到一起,使能配成与变量数量相等的等式方程,从而求出得到原函数极值的各个变量的解。拉格朗日乘子是数学分析中同一名词的推广。

假设需要求极值的目标函数 (objective function) 为 f(x,y) ,约束条件为 φ(x,y)=M 。

设 g(x,y)=M-φ(x,y) ,定义一个新函数F(x,y,λ)=f(x,y)+λg(x,y) ,则用偏导数方法列出方程

∂F/∂x=0

∂F/∂y=0

∂F/∂λ=0

求出 x,y,λ 的值,代入即可得到目标函数的极值

扩展为多个变量的式子为:

F(x1,x2,...λ)=f(x1,x2,...)+λg(x1,x2...)

则求极值点的方程为:

∂F/∂xi=0(xi即为x1、x2……等自变量

∂F/∂λ=g(x1,x2,...)=0

另外,可以将这种把约束条件乘以 λ (即不定

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值