【笔记】《统计学习方法》(7)支持向量机

简书:https://www.jianshu.com/p/eb9d50312de8

第7章 支持向量机

  1. 支持向量机(support vector machines, SVM)是一种二类分类模型
  2. 基本模型是定义在特征空间上的间隔最大的线性分类器,区别于感知机
  3. 核技巧使其成为实质上的非线性分类起
  4. 学习策略是间隔最大化,形式化为求解凸二次规划问题,等价于正则化的合页损失函数最小化问题
  5. 学习算法是求解凸二次规划的最优化算法
  6. 线性可分支持向量机,也称硬间隔支持向量机,对先行可分的训练数据,通过硬间隔最大化学习。
  7. 线性支持向量机,也称软间隔支持向量机,对近似线性可分的训练数据,通过软间隔最大化学习。
  8. 非线性支持向量机,对先行不可分的训练数据,通过核技巧软间隔最大化学习。
  9. 感知机利用误分类最小策略,无穷多解;线性可分支持向量机利用间隔最大化策略,解唯一。
  10. 点到超平面距离可表示分类预测的确信程度。用函数间隔 y(wx+b) y ( w ⋅ x + b ) 来表示分类的正确性(符号)和确信度(距离)
  11. 通过对超平面法向量w添加约束,如规范化, w=1 ‖ w ‖ = 1 ,则间隔确定,称为几何间隔
  12. 则,几何间隔为
    γi=yi(wwxi+bw) γ i = y i ( w ‖ w ‖ ⋅ x i + b ‖ w ‖ )
  13. 间隔最大化的直观解释:对训练数据集找到几何间隔最大的超平面意味着以充分大的确信度对训练数据进行分类。
  14. 线性可分支持向量机学习算法——最大间隔法
    输入:线性可分训练数据集 T={(x1,y1),(x2,y2),...,(xN,yN)} T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } ,其中 xiX=Rn,yiY={1,+1},I=1,2,...,N x i ∈ X = R n , y i ∈ Y = { − 1 , + 1 } , I = 1 , 2 , . . . , N
    输出:最大间隔分离超平面和分类决策函数
    (1)构造并求解约束最优化问题:
    minw,b12w2s.t. yi(wxi+b)10, i=1,2,...,N min w , b 1 2 ‖ w ‖ 2 s . t .   y i ( w ⋅ x i + b ) − 1 ≥ 0 ,   i = 1 , 2 , . . . , N

    求最优解 w,b w ∗ , b ∗
    (2)由此得到分离超平面:
    wx+b=0 w ∗ ⋅ x + b ∗ = 0

    分类决策函数
    f(x)=sign(wx+b) f ( x ) = s i g n ( w ∗ ⋅ x + b ∗ )
  15. 线性可分情况下,训练数据集的样本点中与分离超平面距离最近的样本点的实例称为支持向量(support vector)
    yi(wxi+b)1=0 y i ( w ⋅ x i + b ) − 1 = 0

  16. H1和H2之间的距离称为间隔(margin),等于 2w 2 ‖ w ‖
  17. 决定分离超平面时只有支持向量起作用,其他实例点不起作用
  18. 线性可分支持向量机学习算法
    输入:线性可分训练数据集 T={(x1,y1),(x2,y2),...,(xN,yN)} T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) } ,其中 xiX=Rn,yiY={1,+1},I=1,2,...,N x i ∈ X = R n , y i ∈ Y = { − 1 , + 1 } , I = 1 , 2 , . . . , N
    输出:最大间隔分离超平面和分类决策函数
    (1)构造并求解约束最优化问题
    minα 12i=1Nj=1Nαiαjyiyj(xixj)i=1Nαis.t. i=1Nαiyi=0αi0, i=1,2,...,N min α   1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j ( x i ⋅ x j ) − ∑ i = 1 N α i s . t .   ∑ i = 1 N α i y i = 0 α i ≥ 0 ,   i = 1 , 2 , . . . , N

    求的最优解 α=(α1,α2,...,αN)T α ∗ = ( α 1 ∗ , α 2 ∗ , . . . , α N ∗ ) T
    (2)计算
    w=i=1Nαiyixi w ∗ = ∑ i = 1 N α i ∗ y i x i

    并选择 α α ∗ 的一个正分量 αj>0 α j ∗ > 0 计算
    b=yjI=1Nαiyi(xixj) b ∗ = y j − ∑ I = 1 N α i ∗ y i ( x i ⋅ x j )

    (3)由此得到分离超平面:
    wx+b=0 w ∗ ⋅ x + b ∗ = 0

    分类决策函数
    f(x)=sign(wx+b) f ( x ) = s i g n ( w ∗ ⋅ x + b ∗ )
  19. 线性支持向量机引入松弛变量 ξi0 ξ i ≥ 0 ,目标函数变为
    12w2+Ci=1Nξi 1 2 ‖ w ‖ 2 + C ∑ i = 1 N ξ i
  20. C>0 C > 0 为惩罚参数,C越大对误分类惩罚越大,是调和系数。 12w2 1 2 ‖ w ‖ 2 使间隔尽量小, Ni=1ξi ∑ i = 1 N ξ i 使误分类个数尽量小
  21. 线性支持向量机学习算法(略)P112
  22. 软间隔的支持向量在间隔边界上、或间隔边界与分离超平面之间,或分离超平面误分一侧
  23. 对线性支持向量机来说,其模型为分离超平面和决策函数,策略为软间隔最大化,算法为凸二次规划
  24. 线性支持向量机学习的另一种解释,最小化以下目标函数
    I=1N[1yi(wxi+b)]++λw2 ∑ I = 1 N [ 1 − y i ( w ⋅ x i + b ) ] + + λ ‖ w ‖ 2

    第一项为经验损失, L(y(wx+b))=[1y(wx+b)]+ L ( y ( w ⋅ x + b ) ) = [ 1 − y ( w ⋅ x + b ) ] + 称为合页损失函数
  25. 若能用 Rn R n 中的一个超曲面将正负例正确分开,则称这个问题为非线性可分问题
  26. 用线性分类问题的方法解决非线性问题:非线性变换,将非线性问题变换为线性问题,核技巧:
    (1)使用一个变换将原空间的数据映射到新空间
    (2)在新空间里用线性分类学习方法从训练数据中学习分类模型
  27. 在学习和预测中只定义和函数 K(x,z)=ϕ(x)ϕ(z) K ( x , z ) = ϕ ( x ) ⋅ ϕ ( z ) ,而不显示定义映射函数 ϕ ϕ
    f(x)=sign(i=1NsaiyiK(xi,x)+b) f ( x ) = s i g n ( ∑ i = 1 N s a i ∗ y i K ( x i , x ) + b ∗ )
  28. 学习是隐式地在特征空间中进行,不需要显示定义特征空间和映射函数
  29. 核函数——正定核函数
  30. 常用的核函数:
    (1)多项式核函数(polynomial kernel function)
    K(x,z)=(xz+1)p K ( x , z ) = ( x ⋅ z + 1 ) p

    (2)高斯核函数(Gaussian kernel function)
    K(x,z)=exp(xz22σ2) K ( x , z ) = e x p ( − ‖ x − z ‖ 2 2 σ 2 )

    (3)字符串核函数
  31. 序列最小最优化算法(SMO)是一种启发算法,基本思路:如果所有的变量的解都满足此最优化问题的KKT条件,那么这个最优化问题的解就得到了。通过将原问题不断地分解为子问题并对子问题求解。
    (1)求解两个变量二次规划的解析方法
    (2)选择变量的启发式方法
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值