【吴恩达机器学习-笔记整理】SVM-支持向量机(新的代价函数,最大间隔,高斯核函数,特征数与样本数不同大小关系时的选择)

🌵🌵🌵前言

✨你好啊,我是“ 怪& ”,是一名在校大学生哦。
🌍主页链接:怪&的个人博客主页
☀️博文主更方向为:课程学习知识、作业题解、期末备考。随着专业的深入会越来越广哦…一起期待。
❤️一个“不想让我曾没有做好的也成为你的遗憾”的博主。
💪很高兴与你相遇,一起加油!

SVM隶属于监督学习算法

一、优化目标

1、新的代价函数

logistic回归:
在这里插入图片描述

紫红色线的和logistic回归中代价函数的形状很相似(紫色线条即我们使用的新的代价函数

在这里插入图片描述

2、构建支持向量机

训练样本的代价函数和正则化项数
将上式简化为A+λB
首要工作是:设定不同的λ值,以便能够权衡多大程度的适应训练集,即最小化A,还是保证B足够小

在这里插入图片描述

支持向量机的总体优化目标,通过优化此来得到参数

在这里插入图片描述

二、最大间隔

支持向量机也叫“最大间隔分类器”

在这里插入图片描述

在SVM中,构建了安全因子,一个安全间距,
间隔使SVM具有鲁棒性(在分离数据时,会尽量用大的间距去分离)

请添加图片描述
请添加图片描述

2、只使用最大间隔分类器时,学习算法会对异常点很敏感

当参数C很大时,异常点可能使图中黑线变为紫红线
C不太大时,仍为黑线状态

请添加图片描述

三、数学原理

请添加图片描述

优化函数目标在此图左上角:即1/2*(θ)^2
其需要满足条件s.t.

请添加图片描述

四、核函数

将此处这个相似函数称作为核函数
示例为高斯核函数
还有线性核函数

1、以高斯核函数为例

请添加图片描述

2、运行原理

请添加图片描述

x距离l越近,f值计算出的值就越接近1。
x距离l越远,f值计算出的值就越接近0。

特征值f1衡量了x到第一个标记有多近

3、高斯核函数的参数变化:

请添加图片描述

4、带入参数为例

请添加图片描述

5、如何选择l

请添加图片描述

6、如何选择参数

请添加图片描述

五、使用SVM

记得将特征值归一化,否则其一特征影响过大

请添加图片描述
请添加图片描述

1、常用的核函数

线性核函数、高斯核函数、多项式核函数

请添加图片描述

2、满足的条件

核函数需要满足默塞尔定理

因为支持向量机算法或者SVM的实现函数有许多熟练的数值优化技巧
这个定理确保所有的SVM包,所有的SVM软件包都能用大类的方法并从而迅速得到参数θ

3、多分类

请添加图片描述

4、特征数n与样本数m不同相对大小关系时的选择

请添加图片描述

❤️❤️❤️忙碌的敲代码也不要忘了浪漫鸭!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

怪&

感谢您的支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值