[Machine Learning Course of Andrew-Ng 吴恩达的机器学习课程]机器学习学习笔记(9)--支持向量机

这篇博客介绍了SVM(支持向量机)的基础知识,包括其大间隔分类器机制和损失函数。博主指出吴恩达的讲解相对简单,建议深入研究其他教程以获取更全面的理解。SVM通过最大化类别间隔来优化分类边界,避免过拟合。此外,文章还探讨了核函数的概念,尤其是高斯核函数在非线性分类中的作用,强调了调用预封装库的实用性。
摘要由CSDN通过智能技术生成

不必时时怀念我,也不要指望我回来,我离开以后,你们就是我,
Vive le peuple!

个人感觉吴恩达讲的SVM好像过于简单了,我看网上的那些都搞得挺复杂的,推荐自己有时间去看看其他的教程

SVM的定义

这是教程给的SVM的损失函数定义,和之前的都差不多,区别就是里面的函数被替换了
在这里插入图片描述
并且SVM只会输出结果,并不会输出结果的概率
在这里插入图片描述

大间隔分类器

机制

对于一般的分类器,对下图的内容进行分类,很有可能会选择绿线和粉线
而SVM会选择黑线,黑线离两个群体的距离大致相等,这是SVM的大间隔分类器机制
在这里插入图片描述
在这里插入图片描述

数学原理

吴只讲了低维的,高度应该类似,但是他没讲
首先来搞几个概念:
范数
划红线的就是求一个向量范数的方法,类似于求长度
在这里插入图片描述

向量之间的投影
在这里插入图片描述
v在u上的投影:
在这里插入图片描述

优化函数

如果你还有印象的话,这玩意就是SVM的优化函数
在这里插入图片描述
对于两个特征来说
红色的那玩意就是范数
在这里插入图片描述
由上面的数学原理我们可以知道theta^t * x(i)的具体意义
在这里插入图片描述
就相当于x(i)在theta上面的投影
同时theta^t * x(i)就可以换一种方法来表述
即 p(i) * || theta ||
在这里插入图片描述

关于p(i) * || theta ||的意义

绿色的线即为SVM所作出的分界线
在这里插入图片描述
由上图得到如果结果为正,则前面的部分大于一,反之则小于一
在这里插入图片描述

但因为要求p(i)*||theta||大于等于1,如果p(i)过小的话,||theta||会过大
而我们的优化函数的目的是需要让下图部分变得够小
在这里插入图片描述

所以SVM会选择下图的分界线
在这里插入图片描述
这样就实现了大间隔分类

核函数

像这种图像,用线性回归分析的话不合适
而核函数就是用来解决这一问题的
在这里插入图片描述

理解这玩意

我们在平面上定三个点
同时推出一个新概念:相似度(公式见下图)
在这里插入图片描述

如果一个点很接近标记点,那么它的结果为1,反之为0
在这里插入图片描述

不同情况下的相似度图像
在这里插入图片描述

简单例子:
由这个公式可得,对于这个粉色的点,它的y值为1
在这里插入图片描述
对于蓝色的点,它的y值小于1,也就是不接近

在这里插入图片描述
在这里插入图片描述

当一个点接近两个标记点时,它的值就会为1,它的图像也会变成下面这个样子

在这里插入图片描述
是不是很熟悉?我们就可以靠这个玩意来分类了
我们将代价函数改成这个样子(将f改造成为一个向量)
在这里插入图片描述

要注意的细节

图中的C和之前的λ很类似,大C高偏差,小C高方差
在这里插入图片描述
对于相似度函数(高斯核函数)来说
这个啥(我不知道叫啥)越大,曲线越平滑,欠拟合
反之则过拟合
在这里插入图片描述

吴表示这些玩意最好调别人的库,因为自己写这吊玩意确实很麻烦
他只详细讲了高斯核函数这一个玩意,还有其他种类的核函数,
我的看法是:调包,调包QWQ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值