统计学习方法笔记:第七章.支持向量机

本文详细介绍了支持向量机(SVM),包括线性可分与不可分的支持向量机,合页损失函数,以及非线性SVM中的核函数。重点讲解了线性SVM的求解过程,如最大间隔法和拉格朗日乘数法,以及如何通过核技巧将非线性问题转换为线性问题。还提及了SMO算法,这是一种有效的求解SVM对偶问题的方法。
摘要由CSDN通过智能技术生成

第七章:支持向量机

线性支持向量机

线性可分或硬间隔支持向量机

前提:训练数据集 线 性 可 分 \color{red}{线性可分} 线

学习目标:特征空间的分离超平面: w ⋅ x + b = 0 , w ≠ 0 w\cdot{x}+b=0,w\neq{0} wx+b=0w=0;这个超平面是 唯 一 的 \color{red}{唯一的}

学习策略:最大间隔法,等价于下列的最优化问题:

min ⁡ w , b 1 2 ∣ ∣ w ∣ ∣ 2 \color{red}{\displaystyle\min_{w,b}\frac{1}{2}||w||^2} w,bmin21w2
s t . y i ( w ⋅ x i + b ) − 1 ≥ 0 , i = 1 , 2 , . . . N \color{red}{st. {y_i(w\cdot{x_i}+b)-1}\geq{0},i=1,2,...N} st.yi(wxi+b)10,i=1,2,...N

由于是条件约束的最优化问题,所以自然想到采用 拉 格 朗 日 乘 数 法 \color{red}{拉格朗日乘数法} 来求解问题,一般转化为求解 对 偶 问 题 \color{red}{对偶问题} ,引入拉格朗日乘子后,原始问题成为下式:

L ( w , b , α ) = 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 N α i y i ( w ⋅ x + b ) + ∑ i = 1 N α i ; \color{red}{L(w,b,\alpha)=\frac{1}{2}||w||^2-\displaystyle\sum_{i=1}^{N}{\alpha}_iy_i(w\cdot{x}+b)+\displaystyle\sum_{i=1}^N{\alpha}_i;} L(w,b,α)=21w2i=1Nαiyi(wx+b)+i=1Nαi;,每一个 α \alpha α对应一个样本;

原始问题的对偶问题是极大极小问题:

max ⁡ α min ⁡ w , b L ( w , b , α ) ; \color{red}{\displaystyle\max_{\alpha}\min_{w,b}L(w,b,\alpha);} αmaxw,bminL(w,b,α);

  1. 先求解极小化问题:求导、等于0解得:
    w = ∑ i = 1 N α i y i x i ; \color{red}{w=\displaystyle\sum_{i=1}^{N}{\alpha}_iy_ix_i}; w=i=1Nαiyixi
    ∑ i = 1 N α i y i ; \color{red}{\displaystyle\sum_{i=1}^N{\alpha}_iy_i}; i=1Nαiyi;

  2. 然后使用最优化方法来求解 α \alpha α
    min ⁡ α 1 2 ∑ i = 1 N ∑ j = 1 N α i α j y i y j ( x i ⋅ x j ) − ∑ i = 1 N α i \color{red}{\displaystyle\min_{\alpha}\frac{1}{2}\sum_{i=1}^{N}\sum_{j=1}^N{\alpha}_i{\alpha}_jy_iy_j(x_i\cdot{x_j})-\sum_{i=1}^N{\alpha}_i} αmin21i=1Nj=1Nαiαjyiyj(xixj)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值