浙江大学-机器学习-支持向量机-板书记录(源自B站 仅记录

线性可分 vs 线性不可分

  • 线性可分
    在这里插入图片描述
  • 线性不可分
    在这里插入图片描述

思路:从线性可分开始分析 并推导到线性不可分

线性可分问题求解

定义:将平行线插到的向量叫做支持向量
即那些用于确定分割线的向量 ( 所以适用于小样本 )

在这里插入图片描述
公式1 ↑
只要线性可分 就存在一个w和b
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

所以最小化||w|| 就是最大化d 系数1/2是为了求导方便
而限制条件则是表示每一个样本都在两条线之外,如果不满足线性可分 这里就找不到一组w和b

在这里插入图片描述
即局部最优解即为全局最优解
求局部最优解即可使用梯度下降(上升)法

总结

在这里插入图片描述

SVM处理非线性可分问题

在这里插入图片描述
松弛变量允许部分向量的分类错误
最小化函数限制松弛变量不能太大
在这里插入图片描述
正则项 让整个目标函数规范化(如从仅处理线性扩展到处理非线性)
在这里插入图片描述
c 不断尝试 取最好值

SVM需要事先设定的参数并不多 c是一个

如何解决非线性问题

在这里插入图片描述
在这里插入图片描述
在低维无法线性可分的情况下,升到高维就有可能变成线性可分
在这里插入图片描述
此处的例子就需要想出一个5*1的w和一个常数b使得上面的两个与下面的两个经过运算之后结果分离
某一个解:
在这里插入图片描述

在这里插入图片描述

此时的w也不再是低纬,而是与变化后的x一样的维度
对于任意的一组需要分类的数据,当维度上升到无限维时,线性可分的概率是1
在这里插入图片描述
但此时w也需要是无限维,此时,SVM提出:
在这里插入图片描述
这里的1指的是最小化1/2||w||…那个式子
在这里插入图片描述
所以,借助核函数,我们不需要知道具体的映射函数的具体形式,只需要得到两个无限维向量内积得到的常数结果即可
在这里插入图片描述
高斯核对应的两个向量的维度是无限的
在这里插入图片描述
这里当d确定时,下面两个向量的维度也是有限的

在这里插入图片描述

总结2

在这里插入图片描述

优化理论补充

**在这里插入图片描述**
在这里插入图片描述
这里 限制条件可以通过添加负号 增加常数来实现变化,所以具有普适性
在这里插入图片描述
在这里插入图片描述

2中的最大化是在确定α和β的情况下,遍历所有的w,求L的最小值。所以每确定一个α和β,都会求出一个对应的最小值,然后再求这些最小值中最大的

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这里的证明略,作为已知条件使用
此时从
在这里插入图片描述
所有等号成立 即可推出
在这里插入图片描述

思路:将原问题(最小化)化为对偶问题,用求解对偶问题的方式来求解原问题的解

将SVM化为对偶问题

凸函数
在这里插入图片描述
在这里插入图片描述
将右边进行变形以适配左边
在这里插入图片描述
在这里插入图片描述
此时右边的α和β对应左边的α 而左边的β在右边没有对应的(因为没有xxx=0的限制条件

在这里插入图片描述
推出
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
此时,将左边对应的值代入右边的式子
在这里插入图片描述
在这里插入图片描述
此时已经用k代替了这里的φ函数
在这里插入图片描述
综上
在这里插入图片描述
在这里插入图片描述
此时,便把β隐藏了
在这里插入图片描述
在这里插入图片描述
所以!
在这里插入图片描述
此外
求出α以后
我们实际上不需要知道w 因为:
在这里插入图片描述
b的算法需要用到KKT条件
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
现实中 会取所有的α的值并求出b 然后求平均值

总结3

在这里插入图片描述
在这里插入图片描述
完全消掉了φ函数 只出现了k

实战

在这里插入图片描述
用线性内核等于没有用核
多项式核 φ函数的维度随d的升高而升高
高斯核对应的φ函数的维度是无限的
开始 调参

在这里插入图片描述

SVM处理多类问题

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
浙江大学人工智能课程课件,内容有: Introduction Problem-solving by search( 4 weeks) Uninformed Search and Informed (Heuristic) Search (1 week) Adversarial Search: Minimax Search, Evaluation Functions, Alpha-Beta Search, Stochastic Search Adversarial Search: Multi-armed bandits, Upper Confidence Bound (UCB),Upper Confidence Bounds on Trees, Monte-Carlo Tree Search(MCTS) Statistical learning and modeling (5 weeks) Probability Theory, Model selection, The curse of Dimensionality, Decision Theory, Information Theory Probability distribution: The Gaussian Distribution, Conditional Gaussian distributions, Marginal Gaussian distributions, Bayes’ theorem for Gaussian variables, Maximum likelihood for the Gaussian, Mixtures of Gaussians, Nonparametric Methods Linear model for regression: Linear basis function models; The Bias-Variance Decomposition Linear model for classification : Basic Concepts; Discriminant Functions (nonprobabilistic methods); Probabilistic Generative Models; Probabilistic Discriminative Models K-means Clustering and GMM & Expectation–Maximization (EM) algorithm, BoostingThe Course Syllabus Deep Learning (4 weeks) Stochastic Gradient Descent, Backpropagation Feedforward Neural Network Convolutional Neural Networks Recurrent Neural Network (LSTM, GRU) Generative adversarial network (GAN) Deep learning in NLP (word2vec), CV (localization) and VQA(cross-media) Reinforcement learning (1 weeks) Reinforcement learning: introduction
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值