统计学习方法 第七章支持向量机 读书笔记

第七章 支持向量机

支持向量机(support vector machines,SVM)是一种二分类模型

三要素

模型

定义在特征空间上的间隔最大线性分类器,间隔最大使它有别于感知机。

策略

间隔最大化。可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失函数的最小化问题。

算法

求解凸二次规划的最优化算法

为什么叫支持向量机

在这里插入图片描述

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Z5uwmcCV-1669168163417)(https://gitee.com/imagebed_test/markdown_image/raw/master/img/202211161327396.png)]

7.1 线性可分支持向量机与硬间隔最大化

7.1.1 线性可分向量机

线性可分指的是可以完全分开,即超平面 ω ⋅ x + b = 0 \omega·x+b=0 ωx+b=0上没有样本点

在这里插入图片描述

我们要使得最小几何间隔最大化

7.1.2函数间隔与几何间隔
定义

在这里插入图片描述

在这里插入图片描述

7.1.3 间隔最大化
  • 凸优化问题指的是约束最优化问题

在这里插入图片描述

  • 最大间隔分离超平面的存在与唯一性

**存在性:**由于训练数据中既有正类点又有负类点,所以(w,b)=(0,b)不是最优化的可行解,因此最优解必定满足w不等于0,由此可知分离超平面的存在性。

理解: y ( ω ⋅ x + b ) > 0 为 正 确 分 类 , ω = 0 时 , y ( ω ⋅ x + b ) − − > y b y(\omega·x+b)>0为正确分类,\omega=0时,y(\omega·x+b)-->yb y(ωx+b)>0ω=0,y(ωx+b)>yb

若 b > 0 , 负 类 无 法 正 确 分 类 , 反 之 正 类 无 法 正 确 分 类 若b>0,负类无法正确分类,反之正类无法正确分类 b>0,

在这里插入图片描述

在这里插入图片描述

算法 7.1 最大间隔算法

在这里插入图片描述
在这里插入图片描述

7.1.4 学习的对偶问题

在这里插入图片描述

在这里插入图片描述

算法7.2 线性可分支持向量机学习算法

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JNwXF4tM-1669168163422)(https://gitee.com/imagebed_test/markdown_image/raw/master/img/202211191557691.png)]

7.2 线性支持向量机与软间隔最大化

7.2.1 线性支持向量机

训练集: T ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋅ ⋅ ⋅ , ( x N , y N ) T{(x_1,y_1),(x_2,y_2),···,(x_N,y_N)} T(x1,y1),(x2,y2),,(xN,yN)其中 x i ∈ X = R n , y i ∈ Y = { + 1 , − 1 } x_i\in\mathcal{X}=R^n,y_i\in\mathcal{Y}=\{+1,-1\} xiX=Rn,yiY={+1,1}

线性可分: y i ( ω ⋅ x i + b ) ≥ 1 y_i(\omega·x_i+b)\geq1 yi(ωxi+b)1

位于间隔区域内的点: y i ( ω ⋅ x i + b ) + ξ i ≥ 1 此 时 ξ i ∈ ( 0 , 1 ) y_i(\omega·x_i+b)+\xi_i\geq1此时\xi_i\in(0,1) yi(ωxi+b)+ξi1ξi(0,1)

位于间隔边界外(相反方向): y i ( ω ⋅ x i + b ) + ξ i ≥ 1 此 时 ξ i > 1 , ξ i 为 松 弛 变 量 y_i(\omega·x_i+b)+\xi_i\geq1此时\xi_i>1,\xi_i为松弛变量 yi(ωxi+b)+ξi1ξi>1,ξi

此时约束条件:
KaTeX parse error: Can't use function '$' in math mode at position 2: $̲y_i(\omega·x_i+…

此时目标函数为:
1 2 ∣ ∣ ω ∣ ∣ + C ∑ i = 1 N ξ i \frac{1}{2}||\omega||+C\sum_{i=1}^{N}\xi_i 21ω+Ci=1Nξi
C>0时称为惩罚参数,C值越大,对误分类惩罚越大,反之越小

此时优化问题:(凸二次规划问题)

在这里插入图片描述

在这里插入图片描述

7.2.2 原始问题与对偶问题

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

7.2.3 合页损失函数

在这里插入图片描述

在这里插入图片描述

7.3 非线性支持向量机与核函数

7.3.1 核技巧

非线性可分问题

不同于线性可分问题,存在一个超平面可使其分离,这里存在的是一个超曲面,称为非线性可分,同样的存在非线性不可分

在这里插入图片描述

在这里插入图片描述

核函数

在这里插入图片描述

映射 ϕ ( x ) \phi(x) ϕ(x)不唯一且维度也不唯一,但是他们对应的核函数相同

7.3.2 正定核

空间

在这里插入图片描述
在这里插入图片描述

正定核的充要条件

在这里插入图片描述在这里插入图片描述

K ( x , z ) 是 正 定 核 ⇔ K 是 半 正 定 矩 阵 K(x,z)是正定核\Leftrightarrow K是半正定矩阵 K(x,z)K

7.3.3 常用核函数

在这里插入图片描述

3.定义在离散集合
[ ϕ n ( s ) ] u = Σ i : s ( i ) = u λ l ( i ) [\phi_n(s)]_u=\Sigma_{i:s(i)=u} \lambda^{l(i)} [ϕn(s)]u=Σi:s(i)=uλl(i)

在这里插入图片描述

7.3.4 非线性支持向量机

在这里插入图片描述
在这里插入图片描述

7.4 优化算法

7.4.1 序列最优化算法

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

初始可行解为 α 1 o , α 2 o , 最 优 解 为 α 1 n , α 2 n \alpha_1^o,\alpha_2^o,最优解为\alpha_1^n,\alpha_2^n α1o,α2o,α1nα2n取值范围需要满足
L ≤ α 2 n ≤ H L\leq\alpha_2^n\leq H Lα2nH
在这里插入图片描述
在这里插入图片描述

7.4.2 变量选择方法

1.第一个变量的选择

选择违反KKT条件最严重的样本点

2.第二个变量的选择

选择使 ∣ E 1 − E 2 ∣ |E_1-E_2| E1E2最大的 α 2 \alpha_2 α2

3.b与   E i \ E_i  Ei计算

0 < α 1 n < C 0<\alpha_1^n<C 0<α1n<C
在这里插入图片描述

在这里插入图片描述

0 < α 2 n < C 0<\alpha_2^n<C 0<α2n<C

在这里插入图片描述

在这里插入图片描述

7.4.3 SMO

在这里插入图片描述

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值