吴恩达机器学习 笔记七 支持向量机svm

这篇博客详细介绍了吴恩达机器学习课程中的支持向量机(SVM)。首先,解释了线性SVM的代价函数为何设计成特定形式,特别是为何当z=1和-1时代价为零。接着,探讨了最大化分类间距的直观理解,并阐述了优化目标。此外,还讨论了非线性SVM的概念,包括核函数的使用及其在SVM中的应用。
摘要由CSDN通过智能技术生成

1. 线性svm

1.1 代价函数

  吴恩达的svm课程中由logisitic回归讲起,将logistic回归中的代价函数转换成图中的形式。刚开始的时候我自己很疑惑这个地方:

  • 为什么代价函数要变成这个样子
  • 又为什么代价为零的地方要是 z=11 z = 1 和 − 1 ,不是 z=2,3,4 z = 2 , 3 , 4 … …

  直到好好研究了一番svm的几何意义才明白这样做的意义,下面一一道来。

1.1.1 代价函数为什么要变成这个样子

代价函数

  我们假设二维平面,训练数据散点的坐标为 x=(x1,x2)T x = ( x 1 , x 2 ) T ,我们要明确两个地方:

  • svm的目标是寻找一条支持最大分类间隔的直线 θTx=0 θ T x = 0
  • 我们不要忘记代价函数中的 z=θTx z = θ T x ,这样,我们就可以将代价函数和几何意义联系起来了:
    • y=1 y = 1 时, θTx>=1 θ T x >= 1 ,也就是处于下图中的直线 wTx+b=1 w T x + b = 1 的上方,认为判断正确,代价为零。 θTx<1 θ T x < 1 时,位于直线 wTx+b=1 w T x + b = 1 的下方, θTx θ T x 的值越小,离直线 wTx+b=1 w T x + b = 1 越远,代价越大。
    • y
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值