吴恩达机器学习入门笔记9-支持向量机

9 支持向量机-SVM

相比于神经网络,不用担心陷入局部最优问题,因为是凸优化

9.1 支持向量机的假设函数

[外链图片转存失败(img-kyfofqEG-1568603597814)(E:\Artificial Intelligence Markdown\Machine Learning\pictures\9.1 支持向量机的代价函数.png)]
(9.1) h θ ( x ) = { 1 ,  if  θ T x ≥ 0 0 ,  other  h_{\theta}(x)=\left\{\begin{array}{ll}{1,} & {\text { if } \theta^{T} x \geq 0} \\ {0,} & {\text { other }}\end{array}\right.\tag{9.1} hθ(x)={1,0, if θTx0 other (9.1)
最小化上式,得到参数 θ \theta θ后下次代入为SVM的假设函数,

9.2 支持向量机的决策边界

  • 当C非常大时,SVM会尽可能将所有样本点正确分类,SVM的决策边界会因特殊点而发生较大变化。SVM会将样本以最大间距分开

[外链图片转存失败(img-9UMiLXkz-1568603597816)(E:\Artificial Intelligence Markdown\Machine Learning\pictures\9.2 支持向量机的决策边界-C极大.png)]

[外链图片转存失败(img-4I6egZbN-1568603597820)(E:\Artificial Intelligence Markdown\Machine Learning\pictures\9.2 支持向量机的决策边界-大间距分类器解释.png)]

  • 决策边界与参数向量 θ \theta θ垂直
  • 即使 θ 0 \theta_0 θ0不等于0,即参数向量或决策边界不过原点,最优化目标函数的效果也几乎相同
  • SVM实际上是改变参数,使投影到参数向量上的样本向量距离原点的长度最大,即 p ( i ) . ∣ ∣ θ ∣ ∣ p^{(i)}.||\theta|| p(i).θ中的 p ( i ) p^{(i)} p(i)最大,同时所需的 ∣ ∣ θ ∣ ∣ ||\theta|| θ最小。则可实现 min 1 2 ∑ j = 1 n θ j 2 \text{min}\frac{1}{2}\sum_{j=1}^{n}\theta^2_j min21j=1nθj2
  • 由此SVM也称大间距分类器

9.3 核函数

SVM采用该方法可解决非线性问题

9.3.1 高斯核函数-相似度方程之一

[外链图片转存失败(img-u4KDFX7h-1568603597821)(E:\Artificial Intelligence Markdown\Machine Learning\pictures\9.3.1 标记.png)]

[外链图片转存失败(img-I8xs88Wq-1568603597821)(E:\Artificial Intelligence Markdown\Machine Learning\pictures\9.3.1 高斯核函数.png)]

[外链图片转存失败(img-vmtLSIhs-1568603597822)(E:\Artificial Intelligence Markdown\Machine Learning\pictures\9.3.1 改变核函数参数.png)]

[外链图片转存失败(img-DU1ey0hN-1568603597822)(E:\Artificial Intelligence Markdown\Machine Learning\pictures\9.3.1 非线性边界获取.png)]

f f f即为样本X根据高斯核函数和标记计算得到的特征变量。

f ∈ [ 0 , 1 ] f\in[0,1] f[0,1]当训练好参数 θ \theta θ后,根据一个样本x到不同标记的距离大小不同,特征变量不同,即赋予参数不同权重,最后计算出 θ T f \theta^Tf θTf,判断y=0或y=1,从而得到非线性边界

9.3.2 选取标记l的方法

将所有训练样本均作为标记点

[外链图片转存失败(img-23Oq2Snq-1568603597823)(E:\Artificial Intelligence Markdown\Machine Learning\pictures\9.3.2 选取标记方法.png)]

9.3.3 线性核函数

即没有核参数的函数

[外链图片转存失败(img-qEhafMwN-1568603597824)(E:\Artificial Intelligence Markdown\Machine Learning\pictures\9.3.3 线性核函数.png)]

9.3.4 多项式核函数

效果较差,针对非线性问题

[外链图片转存失败(img-bfUsIUUS-1568603597824)(E:\Artificial Intelligence Markdown\Machine Learning\pictures\9.3.4 多项式核函数.png)]

9.4 支持向量机参数与偏差方差关系

9.4.1 C的选择

C( = 1 λ =\frac{1}{\lambda} =λ1)大:即 λ \lambda λ小, θ \theta θ大,意味着低偏差,高方差,倾向于过拟合

C( = 1 λ =\frac{1}{\lambda} =λ1)小:即 λ \lambda λ大, θ \theta θ小,意味着高偏差,低方差,倾向于欠拟合

9.4.2 σ 2 \sigma^2 σ2的选择

σ 2 \sigma^2 σ2大,特征量 f f f随着x变化缓慢,即x变化很多, θ T f \theta^Tf θTf变化很小,边界变化慢偏差较大

σ 2 \sigma^2 σ2小,特征量 f f f随着x变化剧烈,即x变化很小, θ T f \theta^Tf θTf变化很多,边界变化快方差较大

9.5 使用SVM步骤

  1. 选取参数C

  2. 根据样本情况选取合适的核函数

  3. 编写选取的核函数,输入样本生成所有的特征变量

  4. 根据样本情况缩放样本比例

  5. 若特征数量n(10000)>样本数m(10-1000),使用逻辑回归或者线性核函数,因为数据少无法拟合复杂非线性函数

    若特征数量n(1-1000)<样本数m(10-50000)适中,使用高斯核函数,

    若特征数量n(1-1000)<样本数m(50000+)很大,带高斯核函数的SVM会运行很慢,手动创建更多特征变量,使用逻辑回归和线性核函数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值